Escolar Documentos
Profissional Documentos
Cultura Documentos
27 de fevereiro de 2014
Um "fato" frequentemente afirmado é que operadores ou trabalhadores de manutenção
causam 70 a 90% dos acidentes. Certamente é verdade que os operadores são culpados
por 70-90%. Estamos limitando o que aprendemos com as investigações de acidentes
limitando o escopo da investigação? Ao aplicar o pensamento sistêmico à segurança do
processo, podemos aprimorar o que aprendemos com acidentes e incidentes e, a longo
prazo, evitar mais deles.
MODELOS MENTAIS
Figura 1. Designers e operadores necessariamente vêem os sistemas de forma diferente.
O pensamento sistêmico é uma abordagem para a solução de problemas que sugere que o
comportamento dos componentes de um sistema só pode ser entendido examinando o
contexto em que esse comportamento ocorre. Ver o comportamento do operador
isoladamente do sistema circundante impede a compreensão completa do motivo pelo qual
ocorreu um acidente e, portanto, a oportunidade de aprender com ele.
Assumir que os acidentes têm uma causa raiz nos dá uma ilusão de controle. Normalmente,
a investigação se concentra no erro do operador ou em falhas técnicas, ignorando a tomada
de decisões gerenciais falhas, problemas de cultura de segurança, deficiências regulatórias
e assim por diante. Na maioria dos acidentes graves, todos esses fatores contribuem;
portanto, prevenir acidentes no futuro requer que todos sejam identificados e abordados.
Fatores causais de gerenciamento e sistêmicos, por exemplo, pressões para aumentar a
produtividade, talvez sejam os mais importantes a serem corrigidos em termos de
prevenção de acidentes futuros – mas também são os mais prováveis de serem deixados
de fora dos relatórios de acidentes.
Um argumento semelhante pode ser feito para o rótulo comum de "erro do operador".
Tradicionalmente, o erro do operador é visto como a principal causa de acidentes. A solução
óbvia então é fazer algo sobre o(s) operador(es) envolvido(s): advertir, despedir ou
retreiná-lo(s). Alternativamente, algo pode ser feito em relação aos operadores em geral,
talvez endurecendo seu trabalho (de maneiras que são impraticáveis e, portanto, não
seguidas) ou marginalizando-os ainda mais do processo que estão controlando, colocando
mais automação. Essa abordagem geralmente não tem resultados duradouros e muitas
vezes apenas altera os erros cometidos em vez de eliminar ou reduzir os erros em geral.
O pensamento sistêmico considera o erro humano um sintoma, não uma causa. Todo
comportamento humano é afetado pelo contexto em que ocorre. Para entender e fazer algo
sobre esse erro, devemos olhar para o sistema em que as pessoas trabalham, por exemplo,
o projeto do equipamento, a utilidade dos procedimentos e a existência de conflitos de
metas e pressões de produção. Na verdade, pode-se afirmar que o erro humano é um
sintoma de um sistema que precisa ser redesenhado. No entanto, em vez de mudar o
sistema, tentamos mudar as pessoas – uma abordagem fadada ao fracasso.
Por exemplo, os acidentes geralmente têm precursores que não são relatados
adequadamente no sistema oficial de notificação de erros. Após a perda, o relatório de
investigação recomenda que os operadores recebam treinamento adicional no uso do
sistema de notificação e que seja enfatizada a necessidade de sempre relatar problemas.
Ninguém olha por que os operadores não usaram o sistema. Muitas vezes, é porque o
sistema é difícil de usar, os relatórios entram em um buraco negro e aparentemente são
ignorados (ou pelo menos a pessoa que escreve o relatório não recebe feedback de que foi
lido, muito menos tratado), e o mais rápido e a maneira mais fácil de lidar com um problema
potencial detectado é tentar lidar com ele diretamente ou ignorá-lo, assumindo que foi uma
ocorrência única. Sem corrigir o próprio sistema de relatório de erros, não há muito
progresso ao retreinar os operadores em como usá-lo, principalmente onde eles sabem
como usá-lo, mas o ignoram por outros motivos.
Outro erro humano comum citado em relatórios de investigação é que os operadores não
seguiram os procedimentos escritos. Os operadores muitas vezes não seguem os
procedimentos por boas razões. Um tipo eficaz de ação industrial para operadores que não
têm permissão para fazer greve, como controladores de tráfego aéreo nos EUA, é seguir os
procedimentos ao pé da letra. Esse tipo de ação de trabalho pode derrubar o sistema.
A Figura 1 mostra a relação entre os modelos mentais dos projetistas e os dos operadores.
Os designers lidam com ideais ou médias, não com o sistema real construído. O sistema
pode diferir da especificação original do projetista por variações de fabricação e construção
ou por evolução e mudanças ao longo do tempo. O projetista também fornece os
procedimentos operacionais originais, bem como informações para o treinamento básico do
operador com base na especificação original do projeto. Esses procedimentos podem estar
incompletos, por exemplo, faltando algumas condições remotas, mas possíveis, ou
assumindo que certas condições não podem ocorrer. Por exemplo, os procedimentos e o
treinamento em simulador para os operadores da usina nuclear de Three Mile Island
omitiram as condições que realmente ocorreram no conhecido incidente porque os
projetistas assumiram que essas condições eram impossíveis.
Em contraste, os operadores devem lidar com o sistema real construído e as condições que
ocorrem, antecipadas ou não. Eles usam a experiência operacional e a experimentação
para testar continuamente seus modelos mentais do sistema em relação à realidade e
ajustar os procedimentos conforme considerem apropriados. Eles também devem lidar com
a produção e outras pressões, como o desejo de eficiência e "operações enxutas". Essas
preocupações podem não ter sido contabilizadas no projeto original.
2. Aderir rigidamente aos procedimentos quando o feedback sugere que eles devem ser
adaptados, o que pode levar a incidentes quando os procedimentos estão errados para as
condições particulares existentes. Se, em retrospectiva, os procedimentos estiverem
errados, os operadores serão responsabilizados por segui-los rigidamente.
FOCO NA CULPA
• O que — os eventos que ocorreram, por exemplo, uma falha de válvula ou uma explosão;
• Por que — os fatores sistêmicos que levaram a quem e como, por exemplo, pressões de
produção, preocupações com custos, falhas no processo de design, falhas no processo de
relatório e assim por diante.
O maior problema com a culpa, além de desviar a atenção dos fatores mais importantes em
um acidente, é que ela cria uma cultura em que as pessoas têm medo de relatar erros,
dificultando a capacidade dos investigadores de acidentes de obter a verdadeira história
sobre o que aconteceu. Uma das razões pelas quais a aviação comercial é tão segura é
que foram estabelecidos sistemas de relatórios isentos de culpa que encontram problemas
potenciais antes que ocorra uma perda. Uma cultura de segurança que se concentra na
culpa nunca será muito eficaz na prevenção de acidentes.
VISÃO DE RETROSPECTIVA
No mesmo relatório, os operadores são culpados por não tomarem medidas rápidas o
suficiente quando o alarme de produto químico tóxico detectou o produto químico no ar e
finalmente soou. O relatório concluiu que "as entrevistas com o pessoal não produziram
uma razão clara pela qual a resposta ao ... alarme levou 31 minutos. A única explicação foi
que não havia um senso de urgência, uma vez que, em sua experiência, os alarmes
anteriores foram atribuídos a menores lançamentos que não exigiram a evacuação da
unidade." A surpresa aqui é que a primeira frase afirma que não havia uma razão clara,
enquanto a frase seguinte fornece uma muito boa. Aparentemente, os investigadores não
gostaram desse motivo e o descartaram. Na verdade, o alarme disparava cerca de uma vez
por mês e, no passado, nunca havia indicado uma emergência real. Em vez de emitir uma
ordem de evacuação imediata (que, se feita todos os meses, provavelmente resultaria em
pelo menos uma repreensão), os operadores foram inspecionar a área para determinar se
era mais um alarme falso. Tal comportamento é normal e, se não fosse uma emergência
real naquele momento, teria sido elogiado pela gestão.
REFERÊNCIAS
1. Leveson, N. G., "Engineering a Safer World: Systems Thinking Applied to Safety", MIT
Press, Cambridge, Mass. (2012).
2. Leveson, N. G., "Applying Systems Thinking to Analyze and Learn from Accidents",
Safety Science, 49 (1), pp. 55–64 (2011).
3. Dekker, S.W.A., "The Field Guide to Understanding Human Error", Ashgate Publishing,
Aldershot, U.K. (2006).
4. Dekker, S. W. A., "Just Culture: Balancing Safety and Accountability", 2ª ed., Ashgate
Publishing, Farnham, U.K.
(2012).