Escolar Documentos
Profissional Documentos
Cultura Documentos
RESUMO
Durante o século XX, ocorreu uma transição notável na forma como encaramos a
relação entre a segurança e o fator humano. Na primeira metade do século XX, o
fator humano era visto principalmente como a causa dos problemas de segurança.
Depois disso, o humano passou a ser visto mais como o destinatário dos
problemas de segurança. As intervenções de segurança visaram o sistema. Os
problemas de segurança foram abordados controlando a tecnologia, o contexto em
torno dos trabalhadores. Muitas organizações hoje contam com sistemas de
gerenciamento de segurança, sistemas de prevenção de perdas ou mecanismos
burocráticos semelhantes para contar e tabular eventos negativos. A busca pelo
zero (livre de incidentes e lesões) faz parte dos objetivos declarados de muitas
organizações. Isso, no entanto, também tem alguns efeitos negativos, incluindo a
estigmatização dos trabalhadores envolvidos em incidentes, a manipulação de
variáveis dependentes e o jogo de números. Ir além do zero envolverá ver as
pessoas não como um problema a ser controlado, mas como uma solução a ser
aproveitada. Exigirá ver a segurança como uma presença de recursos para fazer
as coisas darem certo, em vez da ausência de aspectos negativos. E isso significa
que nos comprometemos novamente com a segurança como uma
responsabilidade para as pessoas que fazem nosso trabalho crítico de segurança,
e não como uma responsabilidade burocrática para as pessoas acima de nós.
Mesmo que a história não se divida em duas tão bem assim, nosso pensamento
sobre segurança do trabalho mostra uma transição notável nas metas e estratégias
de melhorias de segurança, com os seres humanos geralmente vistos como causa
e alvo durante a primeira metade do século XX, e mais como o destinatário no
segundo semestre. Neste artigo, primeiro apresentarei brevemente essa história e,
em seguida, abordarei nossas visões atuais sobre segurança no trabalho. Estas,
como o artigo mostrará, derivam tanto da primeira quanto da segunda metade do
século XX. Os trabalhadores humanos são novamente vistos como um problema a
ser controlado; e a segurança é vista como ausência de negativos, ausência de
déficit humano. Hoje, a segurança do trabalho é em grande parte uma
responsabilidade burocrática – a ser gerenciada por meio de processo, protocolo,
vigilância, medição, contagem e tabulação (de dados muitas vezes irrelevantes). A
ideia de uma visão zero (livre de lesões e incidentes) é a instanciação mais óbvia
desse pensamento moderno sobre segurança do trabalho. O artigo será concluído
com uma visão geral das possíveis implicações negativas da adoção de uma visão
zero.
Uma razão importante para isso é que o objetivo, a visão zero, é definido por sua
variável dependente, não por suas variáveis manipuladas. A segurança é sempre a
variável dependente – ela é influenciada por muitas outras coisas (as variáveis
independentes ou manipuladas). Aumentos na pressão de produção e escassez de
recursos (variáveis independentes), por exemplo, podem empurrar o estado
operacional para mais perto do limite marginal, levando a uma redução nas
margens de segurança (variável dependente) (Rasmussen, 1997). Uma diminuição
na transparência das interações e interconexões (a variável independente) pode
aumentar a probabilidade de um acidente de sistema (a variável dependente)
(Perrow, 1984). O sigilo estrutural e as falhas de comunicação associadas à
organização burocrática (variáveis independentes) podem conduzir ao acúmulo de
problemas de segurança não percebidos (variável dependente) (Turner, 1978;
Vaughan, 1996). A visibilidade gerencial nos locais de trabalho (uma variável
independente) pode ter um impacto nas taxas de conformidade processual do
trabalhador (a variável dependente).
A visão zero tem isso de cabeça para baixo. Ele diz aos gerentes para manipular
uma variável dependente. A visão zero nunca foi impulsionada pela teoria ou
pesquisa de segurança. Ela surgiu de um compromisso prático e de uma fé em sua
moralidade. É uma continuação lógica, até mesmo uma conclusão, do projeto
modernista (Zwetsloot, et al., 2013). A teoria da segurança, afinal, é principalmente
sobre variáveis manipuladas, embora muitas vezes considere quais variáveis
dependentes procurar (por exemplo, as contagens de incidentes são variáveis
dependentes significativas para medir?). Mas principalmente, as teorias tendem a
especificar os tipos de coisas que engenheiros, especialistas, gerentes, diretores,
supervisores e trabalhadores precisam fazer para organizar o trabalho, comunicar
sobre ele, escrever padrões para ele. O que eles precisam manipular, em outras
palavras. Os resultados (medidos em termos de incidentes ou acidentes, ou em
termos de indicadores de resiliência) são o que são. Em retrospecto (e o estudo de
acidentes passados é muitas vezes o que impulsiona a teorização sobre
segurança), os resultados podem ser rastreados até variáveis manipuladas
(validamente ou não). A visão zero vira tudo isso de cabeça para baixo. Espera-se
que os gerentes manipulem uma variável dependente – um oxímoro completo.
Manipular uma variável dependente é algo que a ciência considera
experimentalmente impossível ou profissionalmente antiético. E é isso que a visão
zero também pode infligir. Com foco na variável dependente – em termos de como
os bônus são pagos, os contratos são concedidos, as promoções são conquistadas
– manipulação fraudulenta da variável dependente (que é, afinal, uma variável que
depende literalmente de muitas coisas que não são controle) torna-se uma
resposta lógica.
3.3. Empreendedorismo burocrático
Uma visão zero tem benefícios práticos? Definir uma meta por sua variável
dependente tende a deixar as organizações no escuro sobre o que fazer (quais
variáveis manipular) para chegar a essa meta. Os trabalhadores também podem se
tornar céticos em relação ao slogan zero sem evidência de mudança tangível nos
recursos ou práticas locais. É facilmente visto como um duplo discurso de liderança
(Dörner, 1989). Uma pesquisa recente com 16.000 trabalhadores revelou um
cinismo generalizado diante da visão zero (Donaldson, 2013). Não só é incapaz de
envolver os trabalhadores de forma prática, como não há nada acionável (sem
variáveis manipuláveis) em uma mera chamada ao zero que eles possam identificar
e trabalhar. Uma visão zero também tende a estigmatizar os trabalhadores
envolvidos em um incidente. Um dos exemplos mais profundamente enraizados
disso pode ser encontrado na medicina, onde muitos ainda lutam contra a própria
ideia de que erros não ocorrem (Vincent, 2006). Muitos naquele mundo se deparam
diariamente com um mundo onde os erros são considerados lapsos vergonhosos,
falhas morais ou falhas de caráter em uma prática que deveria almejar ser perfeita
(Bosk, 2003; Cook & Nemeth, 2010). Os erros não são vistos como subproduto
sistemático da complexidade e organização e maquinaria do cuidado, mas como
causados pela inépcia humana (Gawande, 2010); como resultado de algumas
pessoas não terem “força de caráter para serem virtuosas” (Pellegrino, 2004, p.
94). A convicção é que, se todos prestarmos atenção e aplicarmos nosso raciocínio
humano, também podemos tornar o mundo um lugar melhor (Gawande, 2008). O
relatório do Instituto de Medicina de 2000 (IOM, 2003) foi acompanhado por um
apelo político à ação para obter uma redução de 50% nos erros médicos em cinco
anos. Esta não era exatamente uma visão zero, mas meio caminho andado. Pode
ter confirmado, ou exacerbado, na medicina e em outros lugares, os sentimentos
de vergonha e culpa quando os fracassos acontecem, e ajudou a gerar
subnotificação, números falsificados e aprendizado sufocado (Dekker, 2012, 2013).
De fato, a visão zero pode levar à supressão de evidências sobre incidentes, lesões
ou outras questões de segurança, bem como à ginástica numérica e re-rotulagem
que ocorre na reclassificação de lesões de trabalhadores por empresas,
seguradoras e pessoal médico. O comportamento antiético que pode incentivar
pode às vezes ser julgado como ilegal ou criminoso:
Beck, U. (1992). Risk society: Towards a new modernity. London: Sage Publications
Ltd.
Bernstein, P. L. (1996). Against the gods: The remarkable story of risk. New York:
John Wiley & Sons, Inc.
Bosk, C. (2003). Forgive and remember: Managing medical failure. Chicago, IL:
University of Chicago Press.
Cook, R. I., & Nemeth, C. P. (2010). ‘‘Those found responsible have been sacked’’:
Some observations on the usefulness of error. Cognition, Technology and Work,
12, 87-93.
Dekker, S. W. A. (2005). Ten questions about human error: A new view of human
factors and system safety. Mahwah, N.J.: Lawrence Erlbaum Associates.
Dekker, S. W. A. (2013). Second victim: Error, guilt, trauma and resilience. Boca
Raton, FL: CRC Press/Taylor & Francis.
Dörner, D. (1989). The logic of failure: Recognizing and avoiding error in complex
situations. Cambridge, MA: Perseus Books.
Gawande, A. (2010). The checklist manifesto: How to get things right (1st ed.). New
York, N.Y.: Metropolitan Books.
Green, J. (2003). The ultimate challenge for risk technologies: Controlling the
accidental. In J. Summerton & B. Berner (Eds.), Constructing risk and safety in
technological practice. London: Routledge.
IOM. (2003). Patient safety: Achieving a new standard for care. Washington, DC:
National Academy of Sciences, Institute of Medicine.
Pellegrino, E. D. (2004). Prevention of medical error: where professional and
organizational ethics meet. In V. A. Sharpe (Ed.), Accountability: patient safety and
policy reform (pp. 83-98). Washington: Georgetown University Press.
Perrow, C. (1984). Normal accidents: Living with high-risk technologies. New York:
Basic Books.
Pidgeon, N. F., & O’Leary, M. (2000). Man-made disasters: Why technology and
organizations (sometimes) fail. Safety Science, 34(1-3), 15-30.
Rochlin, G. I., LaPorte, T. R., & Roberts, K. H. (1987). The self-designing high
reliability organization: Aircraft carrier flight operations at sea. Naval War College
Review, 40, 76-90.
Scott, J. C. (1998). Seeing like a State: How certain schemes to improve the human
condition have failed. New Haven, CT: Yale University Press.
Vaughan, D. (1996). The Challenger launch decision: Risky technology, culture, and
deviance at NASA. Chicago: University of Chicago Press.
Zwetsloot, G. I. J. M., Aaltonen, M., Wybo, J. L., Saari, J., Kines, P., & Beek, R.
(2013). The case for research into the zero accident vision. Safety Science, 58, 41-
48.