Você está na página 1de 12

Análise quantitativa de confiabilidade humana em uma indústria

eletroeletrônica

André Victor Ribeiro Amaral (PUC MINAS) (avramaral@gmail.com)


Grazielle Samara Pereira (PUC MINAS) (grsamara@hotmail.com)
Renata Nayara Costa Silva (PUC MINAS) (renata.nayara93@gmail.com)
Alessandra Lopes Carvalho (PUC MINAS) (alessandralcarvalho@yahoo.com.br)

Resumo: Entender o desempenho do trabalhador nos processos produtivos é fator crucial para
a melhoria da produtividade das Organizações. Nesse sentido, o estudo quantitativo da
confiabilidade possibilita, através da construção de um modelo matemático, a identificação de
padrões de falhas ocasionadas por erros humanos. O presente trabalho dedica-se à análise da
confiabilidade humana em um processo de montagem de itens de pequeno porte dentro de uma
indústria eletroeletrônica. Assim, para que essa pesquisa fosse possível, utilizou-se, em função
da presença de censura nos dados coletados, um método não-paramétrico de análise,
conhecido como Estimador de Kaplan-Meier. Os resultados do modelo revelaram que,
justificado pela solidez do processo, as falhas acontecem à uma taxa constante – o que significa
que, por mais que as linhas de montagem já tenham alcançado um elevado nível de
padronização, erros humanos ainda estão presentes em situações pontuais do processo.
Palavras-chave: Confiabilidade humana; Análise quantitativa; Estimador de Kaplan-Meier.

1. Introdução
Desde a Segunda Revolução Industrial, iniciada na segunda metade do século XIX, com
o desenvolvimento dos setores de energia – destacando-se o petróleo e a utilização da energia
elétrica –, o emprego de equipamentos que auxiliavam na manufatura de itens de grande porte
deu início à uma importante ideia que foi utilizada nos modelos de produção que surgiram nos
anos seguintes: a linha de produção (BERNAL, 2011).
A partir desse momento, e somado aos esforços de Frederick Taylor e Henry Ford, que,
já no começo do século XX, desenvolveram as ideias do Taylorismo e do Fordismo,
respectivamente; os ambientes de fábrica começaram a se tornar locais cada vez mais propícios
ao estudo de tempos e movimentos dos funcionários. Dessa forma, em se tratando da otimização
dos processos de fabricação, não só a disponibilidade das máquinas deveria ser levada em
consideração, mas também a maneira com a qual os homens trabalhavam precisaria de,
compulsoriamente, se tornar objeto de estudo nesse cenário.
Dentro desse contexto, entretanto, apesar de a análise quantitativa do desempenho
humano ser fundamental para o entendimento dos processos nos quais o homem está inserido,
o levantamento dos aspectos qualitativos do trabalho também deve ser ferramenta considerada
na metodologia de estudo da confiabilidade humana – essencial, principalmente, às indústrias
nas quais a atividade que o funcionário desempenha tem papel relevante no escopo do processo.
Por fim, transportando essas características históricas para as necessidades do mundo
moderno, as empresas, com o objetivo de atender às altas expectativas dos consumidores, têm,
cada vez mais, se esforçado para entregar produtos sofisticados aos seus clientes, utilizando-se,
para isso, de processos cada vez mais robustos. Itens que antes eram triviais, hoje possuem, em
alguns casos, centenas de componentes – o que aumenta substancialmente suas chances de
falharem. Como consequência, a adoção de novos métodos de avaliação desses riscos torna-se
necessária, culminando-se, portanto, no estudo da confiabilidade e suas variações.
Dessa forma, este artigo tem o objetivo principal de apresentar os resultados de um
estudo quantitativo, no que se refere à análise da confiabilidade humana, realizado no setor de
montagem de uma indústria eletroeletrônica. Além disso, como objetivos secundários, define-
se: entender o padrão de falhas dos funcionários da empresa escolhida para o estudo de caso e
propor explicações, baseados nos resultados numéricos deste trabalho, para o problema de
recorrência de erro humano dentro da fábrica.
Os resultados obtidos com esse estudo serão utilizados na elaboração de planos de ação
para o desenvolvimento de operadores – visando, portanto, minimizar os erros no processo de
produção oriundos de falhas humanas e, assim, aumentar a eficiência geral do sistema. Espera-
se, também, que o trabalho possa ser fonte de pesquisa para profissionais de áreas similares que
almejam melhorar a qualificação de sua mão-de-obra.
2. Confiabilidade
De acordo com Lafraia (2008), o termo confiabilidade pode ser definido como a
probabilidade de funcionamento de um item (componente, produto ou sistema), isento de
falhas, durante um período de tempo predeterminado e sob condições únicas de operação. Dessa
forma, e a partir dessa conceituação, torna-se importante analisar alguns termos que são cruciais
para o correto entendimento de todo esse estudo.
Em primeiro lugar, deve-se entender o conceito de “falha” que, de acordo com Kardec
e Nascif (2009), representa a perda de função de um item; ou seja, o componente, produto ou
sistema deixa de operar de maneira satisfatória. Assim, para que um item seja considerado, de
fato, falho, é necessário que ele, mais do que perder desempenho ou deixar de realizar tarefas
secundárias à sua principal utilidade, não exerça mais, com total plenitude, a atividade para a
qual ele foi desenvolvido. Além disso, e em adição a essa definição, existe, também, o conceito
de “modo de falha” que, de acordo com Palady (2011), diz respeito à forma através da qual um
sistema pode falhar; isto é, relaciona-se com os motivos potenciais de falhas desse item.
Um segundo ponto importante é compreender que a variável aleatória de interesse nesse
contexto dependerá, na maioria das vezes, do tempo. Portanto, existirá sempre, para os métodos
paramétricos e não-paramétricos de análise, uma variável aleatória •(•••••) classificada
como “quantitativa” (em relação à natureza numérica de sua população) e “contínua ou
discreta” (a depender do possível intervalo de valores que irão compor a amostra estudada).
Assim, a partir do momento que esses conceitos iniciais se tornam claros, pode-se,
então, dar início a um estudo mais elementar das relações numéricas dentro do escopo de o que
é confiabilidade. Para tal, a primeira função necessária para se compreender esse tipo de análise
a é Função de Risco (ou ℎ(•)) que, de maneira conceitual, pode ser entendida como a taxa de
falhas apresentada por um item específico; isto é, ela representa a quantidade de falhas que
surgiram na amostra analisada em relação ao tempo decorrido de coleta.
A fim de generalizar o comportamento dessa função, existe um elemento gráfico
conhecido como “curva da banheira” que mostra como a taxa de falhas cresce ou decresce
conforme o item considerado é submetido a ciclos de intervalos de tempo de operação
(SELLITTO, 2005). A figura a seguir ilustra esse componente:
FIGURA 1 – Curva da banheira (ℎ(•)). Fonte: Adaptado de Sellitto (2005).
Como observado na FIGURA 1, a taxa de falhas no início de operação de um item
qualquer tende a começar alta, considerando que a etapa de implementação desse item analisado
pode ser mais suscetível a erros (fase conhecida como “de mortalidade infantil”). À medida que
o tempo de operação desse item cresce, sua taxa de falhas tende a diminuir, estabelecendo-se
em um nível contínuo – isso acontece por causa da estabilização típica do sistema; ou seja, o
“aprendizado” acumulado reduz a recorrência dos erros – (fase conhecida como “de
maturidade”). E, por último, existe a fase “de mortalidade senil” ou “de envelhecimento”
(FOGLIATTO; RIBEIRO, 2009), na qual a taxa de falhas cresce subitamente em decorrência,
principalmente, do envelhecimento do item observado e desgaste de suas características físicas.
Além da Função de Risco, outra relação numérica, advinda de conceitos estatísticos, é
necessária para a verificação do comportamento dessa taxa de falhas no tempo: a Função
Densidade de Probabilidade (FDP) – utilizada para representar variáveis aleatórias contínuas –
ou a Função Massa de Probabilidade (FMP) – utilizada para representar variáveis aleatórias
discretas. Esse tipo de função, descrita por (•), tem a finalidade de associar um valor de
probabilidade a cada uma das possíveis entradas (ou intervalos de entradas, para grandezas
contínuas) da variável aleatória analisada.
Como resultado, para variáveis aleatórias contínuas, a área total abaixo da curva
definida pela Função Densidade de Probabilidade até o eixo das abscissas, corresponde,
numericamente, ao total de falhas no tempo considerado. Da mesma forma, em se tratando de
variáveis aleatórias discretas, o somatório de todas as entradas da Função Massa de
Probabilidade resultará, como no primeiro caso, no montante acumulado de falhas. À essa
relação do número de falhas em função do tempo, dá-se o nome de Função de Falhas (!(•)),
que, em termos algébricos, conecta-se com a FDP (EQUAÇÃO 1) e com a FMP (EQUAÇÃO
2) das seguintes formas:
%&'*+ (,-./0)
!(•) = # (•) $• (1)
%&'*+ (-.-1-/0)

%&'*+ (,-./0)

!(•) = 2 (3) (2)


- 4 %&'*+ (-.-1-/0)
Considerando as Equações 1 ou 2, chega-se, intuitivamente, à Função de Confiabilidade
– que representa, conforme conceito apresentado no início dessa seção, a probabilidade de
funcionamento de um item ao longo do tempo. Assim, quanto maior a frequência relativa de
falhas em um dado tempo •, maior a probabilidade de um item falhar naquele intervalo
específico, o que significa, então, que menor será a sua confiabilidade naquele ponto analisado.
Dessa forma, a Função Confiabilidade (5(•)) representa o complemento da Função de Falhas,
e pode ser representada pela equação a seguir:
5(•) = 1 − !(•) (3)
Por último, e concluindo a apresentação das funções mais importantes para o estudo da
confiabilidade, consegue-se relacionar, a partir das definições apresentas, a Função de Risco
(ou “taxa de falhas”) com as funções Densidade de Probabilidade (ou Massa de Probabilidade)
e Confiabilidade (RELIASOFT, 2017). Tal relação é expressa por:
(•)
ℎ(•) = (4)
5(•)
Assim, a partir do referencial teórico que contempla a confiabilidade clássica, torna-se
possível estender os estudos às especificidades da confiabilidade humana, sobretudo do ponto
de vista quantitativo de análise.
2.1 Confiabilidade humana
A confiabilidade humana, enquanto extensão do estudo da confiabilidade “clássica” (ou
“técnica”) (DRAGAN; ISAIC-MANIU, 2014), divide-se em duas abordagens principais:
qualitativa e quantitativa. Este artigo se concentrará no segundo tipo; portanto, do ponto de
vista numérico, e como explicado por Pallerosi, Mazzolini e Mazzolini (2011), a confiabilidade
humana deve ser entendida como a probabilidade de uma pessoa, no exercício de uma
determinada função e quando inserida em um ambiente característico, executar uma
determinada atividade, sem falhas, durante o intervalo de tempo considerado.
Entretanto, para se compreender o contexto no qual essas falhas ocorrem, deve-se,
primeiro, entender o termo “erro humano”. Hollnagel citado por Oliveira e Sellitto (2010,
p.678) afirma que o erro humano é resultado de um determinado processo (fabril,
principalmente) que, por algum motivo, produziu resultados inesperados ou consequências
indesejáveis aos agentes que o conduzia. Dessa forma, e segundo Sanders e Moray citados por
Oliveira e Sellitto (2010, p.678), esse tipo de erro pode, inclusive, reduzir o desempenho da
operação e a segurança do trabalhador, que, como foi enfatizado por Reason (2000), o expõe a
condições favoráveis ao desencadeamento de acidentes.
Existem, de acordo com Pallerosi, Mazzolini e Mazzolini (2011), dois tipos de erros
humanos que, fundamentalmente, são responsáveis pelas falhas que esses indivíduos geram no
processo. Esses erros são divididos em: de “deslize” e “enganos”.
O primeiro deles – erro de “deslize” –, ocorre quando os operadores, mesmo possuindo
a capacidade técnica requerida para a execução da tarefa, cometem deslizes no momento de
realização daquilo que lhes foi designado. Em contrapartida, o segundo tipo de erro humano –
o “engano” –, pode ser caracterizado pelas incoerências na realização de uma dada atividade
quando comparada às normas ou especificações que deveriam ser seguidas para o seu correto
cumprimento. Esse tipo de erro (ou “engano”) acontece, sobretudo, em tarefas complexas.
Assim, e de acordo com a categorização dos erros humanos apresentados, dá-se a
entender que a maior parte da responsabilidade pelas falhas associadas a esses equívocos são
dos próprios funcionários – seja por pura negligência, seja por falta de preparo para execução
do trabalho. Entretanto, Lafraia (2008) considera que essa metodologia é ineficaz, pois baseia-
se somente nos aspectos individuais dos funcionários, desconsiderando a importância da
adequação do projeto e do ambiente em questão às características próprias dos agentes que
compõem todo o sistema criado ao redor das demandas que precisam ser atendidas. Essa ideia
também é sustentada por Borges e Menegon (2009), ao afirmar que, assim como a máquina, o
ser humano também necessita estar inserido em um contexto que o possibilite executar seu
trabalho de forma satisfatória; caso contrário, o operador estaria sendo exposto a condições não
ideais, afetando, como consequência dessa inadequação, o desempenho de todo o processo
produtivo.
2.2 Análise da confiabilidade por métodos não-paramétricos
O conjunto de informações necessárias para realização da análise de confiabilidade de
um componente, produto ou sistema é, na maioria das vezes, proveniente de uma amostra de
dados de campo (MARTINS; WERNER, 2010). Entretanto, as observações realizadas sobre o
mundo real nem sempre resultam em um conjunto de dados completo e pronto para a aplicação
imediata das técnicas descritas na seção “2. Confiabilidade”. Em alguns casos, a presença de
censura nos dados é característica intrínseca à base coletada; assim, a censura, que, de acordo
com Freitas e Colosimo (1997), representa a falta de parte das informações sobre o tempo de
falha dos itens considerados, dificulta que técnicas paramétricas de análise sejam empregadas.
Conforme sugerido por Flogiatto e Ribeiro (2009), a presença de censura pode ser
classificada como “à direita”, “à esquerda” ou “por intervalo”. O primeiro, e mais comum,
descreve uma situação na qual se conhece o tempo inicial do teste de vida de um item, mas não
se tem certeza sobre quando ele, de fato, falhou; ou seja, só se conhece o limite inferior do
“tempo até a falha”. Em segundo lugar, existe, também, os dados censurados à esquerda, que,
apesar de menos usuais, representam o resultado de um teste no qual somente o limite superior
do “tempo até a falha” é conhecido. E, por último, há a censura por intervalo; nessa situação,
os dados de “tempo até a falha” são agrupados em intervalos – já que não existe a certeza de
quando eles precisamente falharam.
Contudo, ainda em relação à censura à direita, existem mais outras três subcategorias
que podem ser utilizadas para melhor descrevê-la: a censura do tipo I, censura do tipo II e
censura aleatória (FLOGIATTO; RIBEIRO, 2009). No tipo I, o teste que se está realizando
acontece durante um intervalo de tempo predeterminado; isto é, os itens são colocados sob
estresse e, independente de todos eles atingirem ou não a falha, depois de transcorrido o tempo
estipulado, o teste é interrompido. Já no tipo II, o teste de vida é interrompido após a falha do
n-ésimo item (sendo • um número menor ou igual ao tamanho total da amostra); ou seja, a
interrupção do teste acontece, somente, em função do número de itens que falharam. Por fim,
na censura aleatória, o final do teste acontece item a item; o que significa dizer que, não
necessariamente, os testes têm que ser iniciados (ou terminados) em um mesmo instante –
gerando, portanto, tempos de censura distintos entre os vários itens testados.
Desse modo, e como alternativa à impossibilidade de realização da análise de
frequências de falhas em relação à variável aleatória de interesse (nesse caso, tempo até a falha),
e, por consequência, à impossibilidade de determinação de uma distribuição de probabilidade
que melhor descreva o conjunto de dados avaliados, abordagens não-paramétricas devem ser
consideradas (FREITAS; COLOSIMO, 1997). A técnica mais utilizada nesse contexto é o
estimador de Kaplan-Meier (HERRMANN, 2011).
O estimador de Kaplan-Meier considera que a chance de um item qualquer sobreviver
(sem falhas) até um determinado ponto no tempo independe da probabilidade de sobrevivência
dos outros itens da amostra. Dessa forma, a probabilidade de um componente sobreviver por
um período estabelecido de tempo é dada pelo produtório da probabilidade de sobrevivência de
todos os momentos anteriores ao instante de tempo considerado (HERRMANN, 2011).
Quantitativamente, o cálculo de confiabilidade através do estimador de Kaplan-Meier
pode ser definido pela seguinte equação:
$% − '% $+ − '+ $- −'-
• (!) = " *" *…, .
$% $+ $-
(5)
Onde '- é o número de falhas no instante de tempo !- e $- é o número de itens em
operação até antes do instante de tempo !- .
2.3 Curvas de aprendizagem
Dentre as possíveis técnicas a serem utilizadas para a melhoria da confiabilidade
humana de um processo, pode-se citar o uso das chamadas curvas de aprendizagem. Essa
ferramenta, como explicado por Anzanello e Fogliatto (2007) pode ser entendida como uma
representação numérica do desempenho que um trabalhador pode apresentar quando submetido
à realização de tarefas manuais e repetitivas. Suas aplicações passam, por exemplo, por ações
para a diminuição das falhas no processo de separação manual na área de medicamentos
(RECH; ANZANELLO; DUTRA, 2013).
Esse método é utilizado no acompanhamento do operador a partir do momento que uma
mudança no processo é implementada; especialmente quando essa novidade envolve tarefas
que se repetem sistematicamente ao longo do tempo. Além disso, é possível utilizar as curvas
de aprendizagem para identificar quais operadores apresentam desempenho superior em tarefas
específicas (ANZANELLO; FOGLIATTO, 2007).
Desse modo, e considerando os diversos tipos de processos e pluralidade de dados
disponíveis, há diversos modelos de curvas de aprendizagem com graus de complexidade
variados, e, portanto, aplicações específicas. Dentro do contexto do estudo de confiabilidade
humana, por exemplo, o modelo de curva de aprendizagem mais adequado deve, de modo geral,
englobar as falhas de processo provenientes dos erros humanos como característica associada
ao trabalho realizado pelo operador.
3. Metodologia
O presente trabalho se concentrará em analisar, do ponto de vista quantitativo, os
aspectos da confiabilidade humana em uma indústria eletroeletrônica. Dessa forma, e de acordo
com classificação feita por Bryman citado por Miguel et al. (2012, p.49) em relação a esse tipo
de abordagem, as características de “mensurabilidade” (correto entendimento numérico do
cenário considerado) e “generalização” (predição de comportamentos como resultado da
modelagem da confiabilidade humana) serão as principais preocupações nesse estudo.
Em se tratando do método aplicado, o “estudo de caso” foi escolhido como ferramenta
para construção deste artigo. Enquanto que, dentro da indústria eletroeletrônica na qual essa
pesquisa foi realizada, optou-se pela investigação da área de montagem física dos produtos (ao
invés de a área de montagem das placas de circuitos eletrônicos), pois, em contrapartida ao
restante da fábrica, são nessas linhas de produção escolhidas para análise que se concentram a
maior parte do trabalho humano (manual).
Para tal, os dados utilizados na construção desse estudo foram coletados em um intervalo
de 06 (seis) meses, que se iniciou no dia 10/02/2017 e terminou no dia 09/08/2017. Entretanto,
em função da impossibilidade do acompanhamento sistemático da produção dos itens sobre os
quais o estudo foi realizado versus suas ocorrências de falhas ao longo do tempo, a amostra,
composta por 3363 entradas, não apresenta o valor pontual do “tempo até a falha”; sendo assim,
a utilização de métodos não-paramétricos de análise, como estimadores para o cálculo de
confiabilidade de dados que estão na presença de censura, terão de ser empregados.
Além do mais, em relação à definição dos modos de falhas observados, adotou-se, para
esse estudo, a quebra de componentes físicos por parte dos operadores, durante a montagem,
como causa da falha humana associada a esse incidente; ou seja, a falha humana, nesse contexto,
tem sempre como consequência a destruição (não reparável) de uma ou mais peças que
compõem o produto que se deseja montar.
Por fim, para a construção dos modelos de predição de falhas humanas e cálculo de
confiabilidade na indústria estudada, foi utilizada a linguagem de programação Python.
4. Estudo de Caso
O estudo de caso, fundamentalmente, se deu através do levantamento dos dados de falha
dos operadores em uma indústria eletroeletrônica. A base montada a partir desse procedimento
de coleta gerou informações no que se diz respeito à relação de itens expostos ao risco e número
de falhas no processo. A primeira dessas variáveis – entendida, também, como número de itens
produzidos – relaciona-se à produção total que a indústria, no intervalo de tempo considerado,
obteve como resultado de seu processo produtivo. Tais valores, agrupados em intervalos
semanais, foram recuperados do controle de produção da própria empresa.
A segunda variável, de número de falhas, diz respeito à quantidade de falhas humanas
que, independente do volume de componentes danificados como consequência de cada um
desses incidentes, foram registradas no período observado. Entretanto, um dos principais
problemas enfrentados no tratamento desse banco de dados foi o de que, em função da produção
não-contínua que, naturalmente, compôs o cronograma de montagem da empresa durante as
semanas de interesse, o tempo exato de falha de cada um dos registros da base não era possível
de ser determinado; ou seja, não havia maneira de se conhecer o horário que uma determinada
falha ocorreu – ao invés disso, o número de falhas era extraído enquanto informação diária.
Dessa forma, respeitando todas as limitações que a base de dados oferecia, algumas
considerações, em relação à abordagem do problema de modelagem das falhas humanas na
indústria em questão, tiveram que ser feitas. Os dados, conforme explicado por Flogiatto e
Ribeiro (2009) e apresentado na seção “2.2 Análise da confiabilidade por métodos não-
paramétricos”, são, assim, classificados como censurados.
O tipo de censura, porém, é passível de questionamentos. A ideia mais direta seria a de
classificá-la como censura “por intervalo” – haja visto a necessidade de se agrupar os dados
para a construção de um modelo desse cenário. Entretanto, existe, ainda, o fato de que os testes
(sendo representado pelo processo de montagem que cada um dos funcionários realiza sobre os
itens produzidos) são independentes; isto é, as delimitações de início e final dos testes
acontecem item a item – o que, por sua vez, seria classificado como censura “à direita” ®
censura “aleatória” (FLOGIATTO; RIBEIRO, 2009). Assim, associar a base de dados
levantada a uma única classificação de censura, torna-se tarefa difícil; contudo, o mais
importante é perceber que faltam informações sobre o tempo de falha no processo, o que, por
definição, significa ter dados censurados.
Desse modo, posto que a aplicação de métodos paramétricos de análise não é viável, o
uso de estimadores não-paramétricos, à exemplo do Kaplan-Meier, é necessário para a criação
de um modelo probabilístico que descreva as falhas humanas ao longo do tempo.
A primeira função que podemos estimar é a de confiabilidade (ou •(•)). O estimador
de Kaplan-Meier, como enunciado através da EQUAÇÃO 5, requer o número de falhas ( ! ) e
o número de itens em operação ("! ) até um instante •! no tempo. Para tal, e considerando os
agrupamentos semanais e diários (do volume de produção e do número de falhas,
respectivamente) feitos sobre a base de dados, a análise foi realizada sobre o menor intervalo
de tempo possível comum às duas variáveis: o intervalo semanal.
Assim, conforme mostrado no “APÊNDICE A”, o tempo até a falha (interpretado como
variável aleatória discreta) para cada ciclo de análise da amostra foi definido semana a semana.
De posse de todas essas informações, pode-se, então, esboçar o gráfico que estima a
função de confiabilidade para o contexto analisado dentro do intervalo de tempo estudado:

GRÁFICO 1 – Função Confiabilidade (•# (•)) com Estimador de Kaplan-Meier. Fonte: Elaborado pelos autores.
A partir do GRÁFICO 1, pode-se constatar que a confiabilidade do processo estudado,
durante o intervalo de 26 semanas, decresceu até chegar ao valor de 96.5%; ou seja, a cada 200
itens produzidos, cerca de 193 deles sobreviveram à exposição ao risco do processo de
montagem.
Em adição à essa análise, torna-se importante destacar a Função de Falhas (ou $(•)),
que, em relação à Função Confiabilidade, respeita a relação descrita na EQUAÇÃO 3 (ou na
EQUAÇÃO 2, caso a correspondência fosse construída sobre uma Função Massa de
Probabilidade). Dessa forma, tem-se, inverso ao comportamento que o GRÁFICO 1 apresenta,
a representação das falhas acumuladas no tempo:

GRÁFICO 2 – Função de Falhas ($% (•)) com Estimador de Kaplan-Meier. Fonte: Elaborado pelos autores.
O GRÁFICO 2, por outro lado, mostra como as falhas ocasionadas por erros humanos
evoluíram ao longo das semanas observadas – de 0%, no instante • = 0, até 3.50%, no final
desse período (o que, mais uma vez, evidencia o fato de que a função $ (•) pode ser interpretada
como o complemento da •(•), e vice-versa).
Assim, seguindo com a ideia de compreender completamente o que o conjunto de dados
coletados representa, pode-se, a partir da $(•), obter a Função Massa de Probabilidade (&(•)).
A FMP, como explicada através da EQUAÇÃO 2, representa o quanto a função $(•) cresce a
cada iteração de tempo; dessa forma, definir &(•) para um • qualquer, é o mesmo que calcular
$(•) − $(• − 1). O gráfico da Função Massa de Probabilidade é representado por:

GRÁFICO 3 – Função Massa de Probabilidade (&# (•)). Fonte: Elaborado pelos autores.
Através do GRÁFICO 3, percebe-se que a probabilidade de ocorrência de uma falha
diminui ao longo do tempo. Esse efeito, entretanto, está associado ao fato de que o volume total
de itens expostos ao risco também aumenta (em uma taxa muito maior, se comparada à das
falhas) no decorrer das semanas; sendo assim, quanto mais avançado for o instante de tempo
escolhido, menor a razão entre o “número de falhas” e “número total de produtos já montados”
tende a ser.
Além do mais, ainda sobre o gráfico da Função Massa de Probabilidade, vale destacar
que, assim como indica a EQUAÇÃO 2, a soma dos valores das barras verticais é igual ao
percentual total das falhas acumuladas ao final das 26 semanas (cerca de 3.50%).
Por fim, para que todos os principais aspectos da modelagem de confiabilidade da
situação-problema observada sejam considerados, é necessário construir e interpretar o gráfico
da Função de Risco (ℎ(•)). Como indicado na EQUAÇÃO 4, a função ℎ(•), também conhecida
como “taxa de falhas”, pode ser relacionada com as funções, já definidas, “Massa de
Probabilidade” e “Confiabilidade”. Logo, o gráfico de ℎ(•) se comporta da seguinte maneira:

GRÁFICO 4 – Função de Risco – ou “taxa de falhas” (ℎ(•)). Fonte: Elaborado pelos autores.
O GRÁFICO 4, de ℎ(•), assim como representado pela Função Massa de Probabilidade,
decresce abruptamente nos primeiros intervalos de tempo; contudo, à medida que as semanas
avançam, a “taxa de falhas” se mantem, de modo geral, constante. Esse comportamento inicial
do gráfico da Função de Risco deve-se, mais uma vez, ao fato de que o número de itens
produzidos aumenta semana a semana.
Sendo assim, ao analisar como a “taxa de falhas” varia ao longo do período estudado –
sobretudo depois dos primeiros ciclos de tempo – percebe-se, como explicado na seção “2.
Confiabilidade”, que o processo se encontra em “fase de maturidade” (de acordo com
classificação feita pela “curva da banheira”); ou seja, as falhas não variam expressivamente ao
longo do tempo.
Esse nível aproximadamente constante da “taxa de falhas” pode ser interpretado,
considerando o contexto do processo produtivo analisado, como uma falta de padrão para o
acontecimento das falhas – em outras palavras: as falhas acontecem de maneira aleatória ao
longo das semanas. Isso significa dizer que o processo de montagem se encontra em um estágio
no qual as falhas causadas por padrões de erros já foram removidas, restando, somente, o fator
“acaso” – intrínseco ao trabalho humano nessa situação.
5. Considerações Finais
O estudo e aplicação da confiabilidade humana, enquanto extensão dos métodos de
análise e modelagem de confiabilidade para itens mecanizados, mostrou-se uma ferramenta
essencial para o correto entendimento das falhas advindas de erros humanos no cenário
estudado. Dessa forma, e considerando o indivíduo que compõe o sistema produtivo como
elemento de importância para a garantia da qualidade do processo e dos itens produzidos, a
modelagem de falhas humanas pode ser útil, principalmente, para empresas que utilizam
processos pouco automatizados e com alto nível de repetitividade nas tarefas executadas por
operadores.
Além disso, para as situações nas quais a construção de um modelo paramétrico de
análise não é viável ou possível – seja por presença de censura, seja pela complexidade da
situação considerada –, o uso do Estimador de Kaplan-Meier pode se tornar uma alternativa à
essas limitações. Na indústria eletroeletrônica sobre a qual este trabalho foi desenvolvido, as
especificidades do conjunto de dados, justificadas pela falta de informações completas sobre o
tempo até a falha dos itens expostos ao risco, forçaram a utilização desse tipo de técnica.
Contudo, e levando em consideração as restrições que esse tipo de abordagem apresenta, foi
possível, ao final do estudo, levantar um modelo que descreve, dentro dos limites de tempo
estudados, o padrão de falhas e, por consequência, o nível de confiabilidade que o processo de
montagem apresenta.
Assim, respeitando a interpretação apresentada sobre a taxa de falhas relativamente
constante que o processo produtivo apresenta, algumas estratégias podem ser tomadas a fim de
melhorar os números de itens conformes manufaturados dentro do ambiente de interesse. O uso
de curvas de aprendizagem, sobretudo como forma de medir a performance individual de cada
um dos operários pode ser uma alternativa à dificuldade de eliminar as falhas remanescentes de
um processo, já realizado, de padronização dos procedimentos executados pelos trabalhadores.
Dessa forma, através do levantamento dos indivíduos que, em maior nível, são responsáveis
pelas falhas que acontecem no processo, ações focadas e personalizadas podem ser empregadas
como alternativa para combater os erros aleatórios que ainda se fazem presentes nas linhas de
montagem.
Por fim, como sugestão de pesquisas futuras, pode-se tentar empregar esse mesmo tipo
de análise a outras áreas da mesma indústria – principalmente aquelas nas quais o emprego de
mão-de-obra humana ainda é maior que o uso de máquinas. Além disso, e como forma de
identificar os pontos problemáticos do processo sobre os quais a empresa tem que, com
prioridade, atuar, recomenda-se um estudo paralelo, de caráter econômico, com o objetivo de
identificar e, por consequência, reduzir, as perdas financeiras associadas aos erros humanos em
cada um desses setores da Organização.
Referências
ANZANELLO, Michel José; FOGLIATTO, Flávio Sanson. Curvas de aprendizado: estado da arte e perspectivas
de pesquisa. Gestão & Produção, v. 14, n. 01, p. 109-123, jan./abr. 2007.
BERNAL, John Desmond. Science and Industry in the Nineteenth Century. London: Routledge, 2011.
BORGES, Fábio Morais; MENEGON, Nilton Luiz. Fator Humano: confiabilidade às instabilidades do sistema
de produção. Gestão da Produção, Operações e Sistemas, v. 04, n. 04, p. 37-48, out./dez. 2009.
DRAGAN, Irina-Maria; ISAIC-MANIU, Alexandru. The Reliability of the human factor. Procedia Economics
and Finance, v. 15, p. 1486-1494, 2014.
FOGLIATTO, Flávio Sanson; RIBEIRO, José Luis Duarte. Confiabilidade e manutenção industrial. Rio de
Janeiro: Elsevier, 2009.
FREITAS, Marta Afonso; COLOSIMO, Enrico Antônio. Confiabilidade: análise de tempo de falha e testes de
vida acelerados. Belo Horizonte: Fundação Christiano Ottoni, 1997.
HERRMANN, Letícia. Estimação de curvas de sobrevivência para estudos de custo-efetividade. 2011. 119f.
Monografia (Conclusão de curso) – Universidade Federal do Rio Grande do Sul, Instituto de Matemática e
Estatística, Porto Alegre.
KARDEC, Alan; NASCIF, Júlio. Manutenção: função estratégica. 3. ed. Rio de Janeiro: Qualitymark:
Petrobras, 2009.
LAFRAIA, João Ricardo Barusso. Manual de Confiabilidade, Mantenabilidade e Disponibilidade. 5. ed. Rio
de Janeiro: Qualitymark: Petrobras, 2008.
MARTINS, Vera Lucia Milani; WERNER, Liane. Análise não paramétrica de falhas ao longo do calendário para
alto-falantes. Produto e Produção, v. 11, n. 3, p. 07-18, 2010.
MIGUEL, Paulo Augusto Cauchick et al. Metodologia de pesquisa em engenharia de produção e gestão de
operações. 2. ed. Rio de Janeiro: Elsevier, 2012.
OLIVEIRA; Aline Fernanda de; SELLITTO, Miguel Afonso. Análise qualitativa de aspectos influentes em
situações de risco observadas no gerador de vapor de uma planta petroquímica. Produção, v. 20, n. 4, p. 677-
688, out./dez. 2010.
PALADY, Paul. FMEA – análise dos modos de falha e efeitos: prevendo e prevenindo problemas antes que
ocorram. 5. ed. São Paulo: IMAN, 2011.
PALLEROSI, Carlos Amadeu; MAZZOLINI, Beatriz Pinheiro Machado; MAZZOLINI, Luiz Ricardo.
Confiabilidade humana: conceitos, análises, avaliações e desafios. São Paulo: All Print Editora, 2011.
REASON, James. Human Error. British Medical Journal, v. 320, n. 7237, p. 768-770, 2000.
RECH, Gustavo; ANZANELLO, Michel José; DUTRA, Camila Costa. Curvas de aprendizado e FMEA na
análise de confiabilidade do processo de separação manual de uma distribuidora de medicamentos. Produção
Online, v. 13, n. 03, p. 873-892, jul./set. 2013.
RELIASOFT. Life Data Analysis Reference Book. Disponível em:
<http://www.reliawiki.org/index.php/Life_Data_Analysis_Reference_Book>. Acesso em: 24 nov. 2017.
SELLITTO, Miguel Afonso. Formulação estratégica da manutenção industrial com base na confiabilidade dos
equipamentos. Produção, v. 15, n. 01, p. 44-59, jan./abr. 2005.
Tabela 1 – Dados de Falhas e de Itens sob risco.
Data Semana Falhas (• ) Itens sob risco (! ) F. Confiab. (%) F. de Falhas (%) F. Massa Prob. (%) F. de Risco (%)
10/02 a 16/02 01 153 21780 99.29752066 0.702479339 0.702479339 0.707449022
17/02 a 23/02 02 175 40503 98.86848908 1.13151092 0.429031581 0.433941678
24/02 a 02/03 03 106 45777 98.63955184 1.360448155 0.228937236 0.232094765
03/03 a 09/03 04 143 52870 98.37275676 1.627243236 0.266795081 0.271208299
10/03 a 16/03 05 112 56480 98.17768331 1.822316691 0.195073455 0.198694295
17/03 a 23/03 06 86 67536 98.05266434 1.947335656 0.125018964 0.127501853
24/03 a 30/03 07 121 79477 97.90338377 2.096616232 0.149280577 0.152477443
31/03 a 06/04 08 124 90645 97.76945449 2.230545512 0.13392928 0.136984788
07/04 a 13/04 09 68 97640 97.70136433 2.298635669 0.068090157 0.069692125
14/04 a 20/04 10 110 106425 97.60038101 2.399618991 0.100983322 0.103466115
21/04 a 27/04 11 213 125162 97.43428522 2.56571478 0.166095789 0.170469552
28/04 a 04/05 12 145 138090 97.33197534 2.668024661 0.10230988 0.105114357
05/05 a 11/05 13 141 150929 97.24104644 2.758953564 0.090928904 0.093508767
12/05 a 18/05 14 114 158857 97.17126368 2.82873632 0.069782756 0.07181419
APÊNDICE A – Dados de Falhas e Itens sob risco

19/05 a 25/05 15 122 171643 97.10219652 2.897803478 0.069067158 0.071128317


26/05 a 01/06 16 134 185683 97.03212175 2.967878253 0.070074774 0.07221812
02/06 a 08/06 17 161 199066 96.9536444 3.0463556 0.078477347 0.080943164
09/06 a 15/06 18 136 205084 96.88935028 3.110649722 0.064294122 0.066358296
16/06 a 22/06 19 160 214083 96.81693773 3.183062272 0.07241255 0.074793267
23/06 a 29/06 20 137 224179 96.75777108 3.242228922 0.05916665 0.061149249
30/06 a 06/07 21 120 236587 96.70869428 3.291305721 0.049076799 0.050747039
07/07 a 13/07 22 128 245756 96.65832435 3.341675652 0.050369931 0.052111323
14/07 a 20/07 23 123 255426 96.61177868 3.388221321 0.046545668 0.048178047
21/07 a 27/07 24 110 264049 96.57153124 3.428468758 0.040247438 0.041676296
28/07 a 03/08 25 110 272365 96.53252892 3.467471084 0.039002326 0.040403298
04/08 a 10/08 26 111 280625 96.49434589 3.505654106 0.038183023 0.039570218

Fonte: Elaborada pelos autores.

Você também pode gostar