Você está na página 1de 12

OS PROBLEMAS DA VISÃO ZERO NA SEGURANÇA DO TRABALHO

Dekker, Sidney W. A.1

RESUMO

Durante o século XX, ocorreu uma transição notável na forma como encaramos a
relação entre a segurança e o fator humano. Na primeira metade do século XX, o
fator humano era visto principalmente como a causa dos problemas de segurança.
Depois disso, o humano passou a ser visto mais como o destinatário dos
problemas de segurança. As intervenções de segurança visaram o sistema. Os
problemas de segurança foram abordados controlando a tecnologia, o contexto em
torno dos trabalhadores. Muitas organizações hoje contam com sistemas de
gerenciamento de segurança, sistemas de prevenção de perdas ou mecanismos
burocráticos semelhantes para contar e tabular eventos negativos. A busca pelo
zero (livre de incidentes e lesões) faz parte dos objetivos declarados de muitas
organizações. Isso, no entanto, também tem alguns efeitos negativos, incluindo a
estigmatização dos trabalhadores envolvidos em incidentes, a manipulação de
variáveis ​dependentes e o jogo de números. Ir além do zero envolverá ver as
pessoas não como um problema a ser controlado, mas como uma solução a ser
aproveitada. Exigirá ver a segurança como uma presença de recursos para fazer
as coisas darem certo, em vez da ausência de aspectos negativos. E isso significa
que nos comprometemos novamente com a segurança como uma
responsabilidade para as pessoas que fazem nosso trabalho crítico de segurança,
e não como uma responsabilidade burocrática para as pessoas acima de nós.

Palavras-chave: Segurança do trabalho; visão zero; erro humano; incidentes;


acidentes; fatores humanos

1. A EMERGÊNCIA DE SISTEMAS PENSANDO EM SEGURANÇA NO


TRABALHO

1.1. Uma transição na metade do século XX

Nosso pensamento sobre segurança no local de trabalho emergiu de uma


mudança substancial em meados do século XX – uma mudança que foi
possibilitada não apenas por uma engenharia melhor, mas por ideias da psicologia,
do alto modernismo e de estratégias sociais para controle de risco. Em essência,
essa mudança inverteu as supostas contribuições humanas e do sistema na
criação e erosão da segurança do trabalho e teve implicações significativas para as
metas de controle e melhoria da segurança (Burnham, 2009; Dekker, 2005):
1
O professor Sidney Dekker ensina no Safety Science Innovation Lab, Griffith University e School of
Psychology, The University of Queensland, Brisbane Australia. O Dr. Dekker trabalhou na Nova
Zelândia, Holanda e Inglaterra, foi Senior Fellow na Nanyang Technological University em Cingapura e
professor visitante em segurança da saúde em Melbourne, Austrália e Manitoba, Canadá. Ele pode ser
contatado via sidneydekker.com
· Na primeira metade do século XX, o fator humano era visto como a principal
causa de problemas de segurança no trabalho. As intervenções de segurança
visavam o trabalhador individual – por meio de testes de aptidão, seleção,
treinamento, lembretes, sanções e incentivos. Tecnologias e tarefas eram
vistas como fixas: o humano tinha que ser escolhido e moldado a elas. As
diferenças individuais entre as pessoas deveriam ser exploradas para ajustar
o humano ao sistema. Os problemas de segurança foram resolvidos
controlando o humano. Como um exemplo típico dessa época: acidentes
puros, disse o especialista em segurança H. B. Rockwell em 1905, não
acontecem. Em vez disso, “alguém errou; alguém desobedeceu a uma ordem
ou comprometeu-se a reverter uma lei da natureza” (Burnham, 2009, p. 17).
· Na segunda metade do século XX, o ser humano era visto mais como o
receptor (em vez de instigador) de problemas de segurança – problemas que
foram criados a montante e depois transmitidos por ferramentas, tecnologias
ou tarefas imperfeitas. As intervenções de segurança visavam o sistema –
com melhor design, melhor organização. A tecnologia não foi tomada como
fixa, mas como maleável, para ser adaptada às forças e limitações humanas.
As diferenças individuais eram muito menos importantes do que a criação de
tecnologias e sistemas que resistiriam ou tolerariam as ações de
trabalhadores individuais, independentemente de suas diferenças.
Problemas de segurança foram resolvidos controlando a tecnologia.

Mesmo que a história não se divida em duas tão bem assim, nosso pensamento
sobre segurança do trabalho mostra uma transição notável nas metas e estratégias
de melhorias de segurança, com os seres humanos geralmente vistos como causa
e alvo durante a primeira metade do século XX, e mais como o destinatário no
segundo semestre. Neste artigo, primeiro apresentarei brevemente essa história e,
em seguida, abordarei nossas visões atuais sobre segurança no trabalho. Estas,
como o artigo mostrará, derivam tanto da primeira quanto da segunda metade do
século XX. Os trabalhadores humanos são novamente vistos como um problema a
ser controlado; e a segurança é vista como ausência de negativos, ausência de
déficit humano. Hoje, a segurança do trabalho é em grande parte uma
responsabilidade burocrática – a ser gerenciada por meio de processo, protocolo,
vigilância, medição, contagem e tabulação (de dados muitas vezes irrelevantes). A
ideia de uma visão zero (livre de lesões e incidentes) é a instanciação mais óbvia
desse pensamento moderno sobre segurança do trabalho. O artigo será concluído
com uma visão geral das possíveis implicações negativas da adoção de uma visão
zero.

1.2. Trabalhadores propensos a acidentes

Por volta de 1925, independentemente uns dos outros, psicólogos britânicos e


alemães sugeriram que havia trabalhadores particularmente “propensos a
acidentes”. A inclinação para “acidente” (usado como verbo na época) era vista
como proporcional ao número de acidentes sofridos anteriormente. Na Inglaterra,
Eric Farmer, psicólogo industrial de Cambridge, começou a desenvolver testes para
identificar pessoas com probabilidade de sofrer acidentes, percebendo que fatores
pessoais e individuais contribuíam para os acidentes. O “fator humano” na época
era pensado não em termos de condições psicológicas ou ambientais
generalizáveis ​(como fadiga ou armadilhas de erro no projeto de equipamentos),
mas características próprias do indivíduo, ou, no vocabulário de déficit da época, “
defeitos físicos, mentais ou morais”. (Burnham, 2009, p. 61). Essas características
negativas podiam ser identificadas testando e examinando cuidadosamente os
trabalhadores – algo para o qual os institutos psicológicos estavam desenvolvendo
simulações e engenhocas cada vez mais inteligentes. Testar psicologicamente
novos funcionários e eliminar aqueles que testaram mal em eficiência,
supostamente ajudou a reduzir a taxa geral de acidentes – algo que chamou a
atenção de indústrias e companhias de seguros em todo o mundo. A propensão a
acidentes tornou-se firmemente estabelecida como um traço psicológico individual
e indesejável. Manteve um maquinário crescente de psicotécnica, de teste e
seleção, ocupado até a Segunda Guerra Mundial. O tom dos psicólogos por trás da
ideia tornou-se otimista, alegando que:

A propensão a acidentes não é mais uma teoria, mas um fato


estabelecido, e deve ser reconhecida como um elemento importante
na determinação da incidência de acidentes. Isso não significa que o
conhecimento do assunto seja completo, ou que a responsabilidade de
um determinado indivíduo pelo acidente possa ser prevista com
certeza. O que foi demonstrado, até agora, é que é até certo ponto
possível detectar aqueles mais propensos a sofrer acidentes. (Farmer,
1945, p. 224)

1.3. Tecnologia, não humanos, como alvo

Em meados do século XX, ocorreu uma transição notável, estimulada em parte


pela rapidez e complexidade dos desenvolvimentos tecnológicos durante a
Segunda Guerra Mundial. As intervenções comportamentais ou de triagem
deixaram de produzir os resultados desejados na redução do risco de acidentes.
Em vez de tentar mudar o humano para que os acidentes se tornassem menos
prováveis, os pensadores de segurança perceberam que podiam e deveriam mudar
as tecnologias e tarefas para tornar menos prováveis ​erros e acidentes. As
estatísticas e a base de pesquisa sob as pessoas propensas a acidentes também
eram cada vez mais vistas como suspeitas, e essa propensão não era mais aceita
como uma característica duradoura. Ao mesmo tempo, o crescimento da
epidemiologia deu mais credibilidade à ideia de grupos de risco do que traços de
personalidade e indivíduos. Os grupos de risco (por exemplo, trabalhadores jovens,
trabalhadores mais velhos, trabalhadores estrangeiros) podem ser identificados
com mais certeza estatística e as intervenções podem ser direcionadas a eles. Em
geral, a segunda metade do século XX viu os humanos não mais apenas como a
causa dos problemas de segurança – eles eram os destinatários dos problemas de
segurança: problemas que poderiam ser projetados, organizados ou eliminados por
campanha (Dekker, 2005).
TABELA 1
COMO NOSSO ENTENDIMENTO DA RELAÇÃO ENTRE A SEGURANÇA
E O FATOR HUMANO SOFREU UMA TRANSFORMAÇÃO NOTÁVEL
DURANTE O SÉCULO XX

Primeira metade do século XX Segunda metade do século XX


Humano é causa de problemas Humano é destinatário de problemas
As intervenções de segurança visam o As intervenções de segurança visam o
humano por meio de seleção, ambiente organizacional e tecnológico
treinamento, sanções e recompensas

A tecnologia e as tarefas são fixas, o A tecnologia e as tarefas são maleáveis e


humano tem que ser escolhido para elas e devem ser adaptadas às forças e
adaptado a elas limitações humanas

As diferenças individuais são a chave para Tecnologias e tarefas devem ser


encaixar o ser humano certo para a tarefa concebidas para serem resistentes a erros
e tolerantes a erros, independentemente
das diferenças individuais
Problemas de segurança abordados Problemas de segurança abordados
controlando o humano controlando a tecnologia

A psicologia é útil para influenciar o A psicologia é útil para entender a


comportamento das pessoas, ela nos percepção, a atenção, a memória e a
permite projetar pessoas para se tomada de decisões, para que possamos
adequarem aos nossos sistemas projetar sistemas adequados às pessoas

Essa mudança foi acompanhada por uma mudança na teorização psicológica


também. A primeira metade do século XX foi em grande parte animada pelo
behaviorismo. Esta era uma psicologia que não estava interessada em fenômenos
mentais, mas em moldar e moldar o comportamento do trabalhador aos ambientes
existentes. Isso pode ser feito usando sistemas inteligentes de seleção,
recompensas e sanções. Investigar a mente para entender por que os
trabalhadores fizeram o que fizeram não era tão importante quanto trabalhar com
seu comportamento para levá-los a fazer a coisa certa. A segunda metade do
século XX, em contraste, viu o crescimento da psicologia da engenharia e da
psicologia cognitiva. Os fenômenos mentais mais uma vez tornaram-se importantes
para entender a melhor forma de projetar e projetar tecnologias que se adequem
aos pontos fortes e limitações da percepção humana, memória, atenção e tomada
de decisões, sejam em geral ou específicas para determinados grupos de risco.

2. ALTO MODERNISMO NA SEGURANÇA DO TRABALHO: SISTEMAS


PENSANDO NO MÁXIMO

A mudança de humanos como alvo de intervenções de segurança para tecnologias


e sistemas foi possibilitada por uma série de desenvolvimentos importantes. O
primeiro foi obviamente o crescimento da riqueza após a Segunda Guerra Mundial,
que permitiu, em primeiro lugar, intervenções no nível do sistema (Bernstein,
1996). O período pós-guerra também viu o domínio do alto modernismo, um modo
de pensamento ocidental inspirado pelos sucessos capitalistas, governamentais e
industriais da revolução científica e do Iluminismo. O alto modernismo foi
caracterizado principalmente por uma fé inabalável na racionalidade da ciência e
da tecnologia. Seus grandes esquemas (por exemplo, habitação pública e projeto
de infraestrutura de estradas) foram impostos às sociedades de cima para baixo
para tornar o mundo um lugar mais linear, controlável, confiável, previsível,
padronizado e organizado. Era literalmente “pensamento sistêmico” porque as
intervenções de segurança visavam ao nível dos sistemas, não aos participantes
humanos individuais neles. Ele fez uma série de suposições sobre a localização e a
natureza da especialização para prevenção de acidentes e segurança do trabalho:
· A autoridade é conferida àqueles que planejam, projetam, gerenciam e
projetam, e não àqueles que executam. Para aumentar a segurança, o
controle precisa ser retirado daqueles que executam (por exemplo,
determinando os limites de velocidade ou onde dirigir na superfície da
estrada) (Scott, 1998).
· Os usuários são essencialmente incapazes de resistir à imposição do alto
modernismo na execução de suas tarefas. O desvio é visto como uma
“violação” e é criminalizado.
· A ordenação administrativa da natureza e da sociedade, hierarquicamente
imposta de cima para baixo (expressa em treinamento de trabalhadores,
licenciamento, design do local de trabalho e muito mais).
· O artesanato, a experiência local, a improvisação e outras expressões de
diversidade são oficialmente desaprovadas.
A crença de que a segurança é gerada principalmente por meio de planejamento,
processo, papelada, trilhas de auditoria e trabalho administrativo – tudo a uma
distância cada vez maior da operação – tornou-se arraigada em muitos setores.
Originalmente, as ideias que deram origem a isso eram empoderadoras e
emancipatórias, assim como os fatores humanos pretendiam. A segurança não era
vista como um problema apenas da ponta afiada ou operacional da prática. Em vez
disso, tinha tudo a ver com a forma como o trabalho era organizado, dotado de
recursos, supervisionado, planejado, projetado e gerenciado. Cada vez mais, no
entanto, isso pode se tornar restritivo. Um foco em sistemas de segurança e
conformidade processual, vigilância e monitoramento, colocou novos limites para
as pessoas que trabalham na ponta afiada. A emancipação prometida pela
transformação da segurança é agora facilmente mantida refém pela deferência às
preocupações de responsabilidade, ao protocolo, ao seguro e ao medo de
regulamentação e litígio. As regras são estabelecidas e mantidas não
necessariamente porque ajudam a criar segurança, mas porque ajudam a gerenciar
ou desviar a responsabilidade por quaisquer resultados ruins. Isso também se
espalhou para compromissos de visão zero.

3. MODERNISMO E ZERO VISÃO

3.1. Otimismo e progresso em direção a zero

A visão modernista do trabalho é essencialmente otimista. A ideia de melhoria


contínua (conduzida e monitorada por burocracias de segurança) está
profundamente enraizada nas visões zero de muitas indústrias e organizações em
todo o mundo. Pouco se sabe, no entanto, sobre as atividades e mecanismos
exatos que estão por trás das reduções de danos que as empresas comprometidas
testemunharam, e pouca pesquisa foi realizada sobre isso (Zwetsloot et al., 2013).

3.2. Manipulando a variável dependente

Uma razão importante para isso é que o objetivo, a visão zero, é definido por sua
variável dependente, não por suas variáveis ​manipuladas. A segurança é sempre a
variável dependente – ela é influenciada por muitas outras coisas (as variáveis ​
independentes ou manipuladas). Aumentos na pressão de produção e escassez de
recursos (variáveis ​independentes), por exemplo, podem empurrar o estado
operacional para mais perto do limite marginal, levando a uma redução nas
margens de segurança (variável dependente) (Rasmussen, 1997). Uma diminuição
na transparência das interações e interconexões (a variável independente) pode
aumentar a probabilidade de um acidente de sistema (a variável dependente)
(Perrow, 1984). O sigilo estrutural e as falhas de comunicação associadas à
organização burocrática (variáveis ​independentes) podem conduzir ao acúmulo de
problemas de segurança não percebidos (variável dependente) (Turner, 1978;
Vaughan, 1996). A visibilidade gerencial nos locais de trabalho (uma variável
independente) pode ter um impacto nas taxas de conformidade processual do
trabalhador (a variável dependente).

A visão zero tem isso de cabeça para baixo. Ele diz aos gerentes para manipular
uma variável dependente. A visão zero nunca foi impulsionada pela teoria ou
pesquisa de segurança. Ela surgiu de um compromisso prático e de uma fé em sua
moralidade. É uma continuação lógica, até mesmo uma conclusão, do projeto
modernista (Zwetsloot, et al., 2013). A teoria da segurança, afinal, é principalmente
sobre variáveis ​manipuladas, embora muitas vezes considere quais variáveis ​
dependentes procurar (por exemplo, as contagens de incidentes são variáveis ​
dependentes significativas para medir?). Mas principalmente, as teorias tendem a
especificar os tipos de coisas que engenheiros, especialistas, gerentes, diretores,
supervisores e trabalhadores precisam fazer para organizar o trabalho, comunicar
sobre ele, escrever padrões para ele. O que eles precisam manipular, em outras
palavras. Os resultados (medidos em termos de incidentes ou acidentes, ou em
termos de indicadores de resiliência) são o que são. Em retrospecto (e o estudo de
acidentes passados ​é muitas vezes o que impulsiona a teorização sobre
segurança), os resultados podem ser rastreados até variáveis ​manipuladas
(validamente ou não). A visão zero vira tudo isso de cabeça para baixo. Espera-se
que os gerentes manipulem uma variável dependente – um oxímoro completo.
Manipular uma variável dependente é algo que a ciência considera
experimentalmente impossível ou profissionalmente antiético. E é isso que a visão
zero também pode infligir. Com foco na variável dependente – em termos de como
os bônus são pagos, os contratos são concedidos, as promoções são conquistadas
– manipulação fraudulenta da variável dependente (que é, afinal, uma variável que
depende literalmente de muitas coisas que não são controle) torna-se uma
resposta lógica.
3.3. Empreendedorismo burocrático

Não surpreendentemente, não há evidências de que a visão zero tenha um


impacto na segurança maior do que a próxima intervenção de segurança
(Donaldson, 2013). Isso pode não importar, no entanto, já que as visões zero são
um forte instrumento do que é conhecido como empreendedorismo burocrático. Ele
permite que as pessoas envolvidas em segurança digam duas coisas
simultaneamente: podem afirmar que grandes coisas já foram realizadas por causa
de seu trabalho, mas que mais trabalho é necessário porque o zero ainda não foi
alcançado. E porque nunca será, ou porque o medo organizacional de retroceder
do zero pode ser mantido, as pessoas de segurança permanecerão relevantes,
empregadas, contratadas, financiadas. É difícil saber se as pessoas nessas
posições acreditam genuinamente que lesões e acidentes podem ser totalmente
eliminados. Mas eles precisam ser vistos para acreditar – para atrair investimentos,
trabalho, subsídios federais, contratos, aprovação regulatória e seguros acessíveis.

3.4. Cinismo, estigmatização e supressão de más notícias

Uma visão zero tem benefícios práticos? Definir uma meta por sua variável
dependente tende a deixar as organizações no escuro sobre o que fazer (quais
variáveis ​manipular) para chegar a essa meta. Os trabalhadores também podem se
tornar céticos em relação ao slogan zero sem evidência de mudança tangível nos
recursos ou práticas locais. É facilmente visto como um duplo discurso de liderança
(Dörner, 1989). Uma pesquisa recente com 16.000 trabalhadores revelou um
cinismo generalizado diante da visão zero (Donaldson, 2013). Não só é incapaz de
envolver os trabalhadores de forma prática, como não há nada acionável (sem
variáveis ​manipuláveis) em uma mera chamada ao zero que eles possam identificar
e trabalhar. Uma visão zero também tende a estigmatizar os trabalhadores
envolvidos em um incidente. Um dos exemplos mais profundamente enraizados
disso pode ser encontrado na medicina, onde muitos ainda lutam contra a própria
ideia de que erros não ocorrem (Vincent, 2006). Muitos naquele mundo se deparam
diariamente com um mundo onde os erros são considerados lapsos vergonhosos,
falhas morais ou falhas de caráter em uma prática que deveria almejar ser perfeita
(Bosk, 2003; Cook & Nemeth, 2010). Os erros não são vistos como subproduto
sistemático da complexidade e organização e maquinaria do cuidado, mas como
causados ​pela inépcia humana (Gawande, 2010); como resultado de algumas
pessoas não terem “força de caráter para serem virtuosas” (Pellegrino, 2004, p.
94). A convicção é que, se todos prestarmos atenção e aplicarmos nosso raciocínio
humano, também podemos tornar o mundo um lugar melhor (Gawande, 2008). O
relatório do Instituto de Medicina de 2000 (IOM, 2003) foi acompanhado por um
apelo político à ação para obter uma redução de 50% nos erros médicos em cinco
anos. Esta não era exatamente uma visão zero, mas meio caminho andado. Pode
ter confirmado, ou exacerbado, na medicina e em outros lugares, os sentimentos
de vergonha e culpa quando os fracassos acontecem, e ajudou a gerar
subnotificação, números falsificados e aprendizado sufocado (Dekker, 2012, 2013).
De fato, a visão zero pode levar à supressão de evidências sobre incidentes, lesões
ou outras questões de segurança, bem como à ginástica numérica e re-rotulagem
que ocorre na reclassificação de lesões de trabalhadores por empresas,
seguradoras e pessoal médico. O comportamento antiético que pode incentivar
pode às vezes ser julgado como ilegal ou criminoso:

Um homem da Louisiana está passando um tempo na prisão por mentir


sobre ferimentos de trabalhadores nas instalações nucleares da Tennessee
Valley Authority, o que permitiu que sua empresa recebesse US $ 2,5
milhões em bônus de segurança. Um comunicado do tribunal federal diz que
o homem de 55 anos foi condenado a 6,5 anos de prisão, seguidos de dois
anos de liberdade condicional.

Ele era o gerente de segurança do Shaw Group, um empreiteiro de


construção. Ele foi condenado em novembro por não relatar ferimentos nas
fábricas de Sequoyah e Watts Bar no Tennessee e Brown's Ferry no
Alabama entre 2004 e 2006. Em seu julgamento federal, os jurados ouviram
evidências de mais de 80 ferimentos que não foram registrados
imediatamente, incluindo ossos quebrados, ligamentos rompidos, hérnias,
lacerações e lesões nos ombros, costas e joelhos. Shaw Group pagou o
dobro dos bônus (Anon., 2013).

3.5. Gastar recursos investigativos

Os recursos investigativos também são facilmente desperdiçados: se o zero é


considerado alcançável, então tudo é evitável. E se tudo é evitável, tudo precisa ser
investigado, incluindo pequenas entorses e cortes de papel. E se uma organização
não investigar, pode até ter implicações legais diretas. Um compromisso
organizacional documentado com zero dano pode levar um promotor a alegar que
se a organização e seus gerentes e diretores realmente acreditassem que todo
dano era evitável, então tal prevenção era razoavelmente praticável (Donaldson,
2013). Eles são responsáveis ​se o dano ocorrer, uma vez que eles ou seus
trabalhadores devem ter falhado em tomar todas as medidas razoavelmente
praticáveis ​para evitá-lo. Judith Green acompanhou essa evolução em nosso
pensamento sobre acidentes (Green, 2003), e não é difícil vinculá-la a uma
tendência global de criminalização do erro (Dekker, 2011). Como um dos
subprodutos do modernismo, nossa interpretação dos acidentes mudou
drasticamente. Falhas surpreendentes como o acidente nuclear de Three Mile
Island em 1973 e a colisão de dois jatos jumbo em Tenerife em 1977 não são mais
vistas como eventos aleatórios, incontroláveis ​e sem sentido. Ao contrário, a
promessa do modernismo é o progresso, o controle (Beck, 1992). E os acidentes
são evidências de que tal controle foi perdido; que um determinado risco não foi
suficientemente bem gerido. Acidentes não são evidências de eventos
incontroláveis, mas evidências de eventos não controlados. Tais falhas de gestão
de risco abrem a porta para que procuremos alguém responsável. Se o infortúnio
nos atinge hoje, realmente não o vemos mais como aleatório ou incontrolável.
Muitas vezes queremos descobrir quem não fez o trabalho dela. E então queremos
colocar o “acidente” na conta deles (Dekker, 2012).

4. SÃO POSSÍVEIS ORGANIZAÇÕES LIVRES DE ACIDENTES?


Uma visão zero é um compromisso. É um compromisso modernista, inspirado no
pensamento iluminista, movido pelo apelo moral de não querer fazer mal e fazer do
mundo um lugar melhor. Também é impulsionado pela crença modernista de que o
progresso é sempre possível, que podemos melhorar continuamente, sempre
melhorar as coisas. Os sucessos passados ​do modernismo são tomados como
razão para tal confiança no progresso. Afinal, nos ajudou a alcançar aumentos
notáveis ​na expectativa de vida e reduzir todos os tipos de lesões e doenças. Com
ainda mais dos mesmos esforços e compromissos, devemos ser capazes de
alcançar mais dos mesmos resultados, cada vez melhores. Mas um compromisso
nunca deve ser confundido com uma probabilidade estatística. A probabilidade
estatística de falha em um mundo complexo e com recursos limitados - tanto
empiricamente quanto em termos das previsões feitas pela teoria - simplesmente
exclui zero. Na verdade, a teorização de segurança de quase qualquer pedigree é
pessimista demais para permitir uma organização livre de incidentes e acidentes.
Veja a teoria dos desastres feitos pelo homem, por exemplo. Com base em
pesquisas empíricas sobre uma série de desastres de alta visibilidade, concluiu que
“apesar das melhores intenções de todos os envolvidos, o objetivo de operar
sistemas tecnológicos com segurança pode ser subvertido por alguns processos
muito familiares e 'normais' da vida organizacional ” (Pidgeon & O'Leary, 2000, p.
16). Essa “subversão” ocorre por meio de fenômenos organizacionais usuais, como
informações que não são totalmente apreciadas, informações não montadas
corretamente ou informações conflitantes com entendimentos prévios de risco.
Turner observou que as pessoas eram propensas a descontar, negligenciar ou não
levar em discussão informações relevantes. Portanto, não importa com que visão
os gerentes, diretores, trabalhadores ou outros membros da organização se
comprometam, sempre haverá suposições e mal-entendidos errôneos, rigidez de
crença e percepção humana, desconsideração de reclamações ou sinais de alerta
de pessoas de fora e relutância em imaginar os piores resultados - como os
produtos normais da organização burocrática do trabalho (Turner, 1978).
Não muito depois, Perrow sugeriu que o risco de acidente é uma propriedade
estrutural dos sistemas que operamos (Perrow, 1984). A extensão de sua
complexidade interativa e acoplamento está diretamente relacionada à
possibilidade de um acidente de sistema. A complexidade interativa torna difícil
para os humanos rastrear e entender como as falhas se propagam, proliferam e
interagem, e o acoplamento rígido significa que os efeitos de falhas únicas
reverberam através de um sistema – às vezes tão rapidamente ou em uma escala
tão grande que a intervenção é impossível, tarde demais , ou fútil. A única maneira
de alcançar uma visão zero em tal sistema é desmontá-lo e não usá-lo
completamente. Que é o que Perrow essencialmente recomendou que as
sociedades façam com a geração de energia nuclear. Alguns argumentariam que a
previsão de Perrow não foi confirmada quantitativamente desde que a teoria foi
divulgada pela primeira vez em 1984. O epítome de Perrow de sistemas
extremamente complexos e altamente acoplados – geração de energia nuclear –
produziu apenas alguns acidentes, por exemplo. No entanto, o desastre
relacionado ao terremoto de 2011 em Fukushima seguiu de perto um roteiro
perrowiano. O tsunami resultante inundou salas baixas na usina nuclear japonesa,
que continha seus geradores de emergência. Isso cortou a energia das bombas de
água de refrigeração, resultando em superaquecimento do reator e explosões
químicas de hidrogênio no ar e na propagação da radiação.
A análise de Vaughan da decisão de lançamento do ônibus espacial Challenger de
1986 concretizou o que é conhecido como a tese da banalidade dos acidentes
(Vaughan, 1996). Semelhante à teoria de desastres causados ​pelo homem, ela diz
que o potencial de ter um acidente cresce como um subproduto normal de fazer
negócios sob pressões normais de escassez de recursos e competição. Dizer às
pessoas para não terem incidentes ou acidentes, para tentar fazer com que se
comportem de maneira a tornar menos provável, não é um remédio muito
promissor. O potencial de erro e desastre é socialmente organizado: vem das
próprias estruturas e processos que as organizações implementam para torná-los
menos prováveis. Por meio de culturas de produção, por meio do sigilo estrutural
associado a organizações burocráticas e uma aceitação gradual do risco à medida
que as consequências ruins são mantidas sob controle, o potencial para um
acidente realmente cresce sob as próprias atividades em que uma organização se
envolve para modelar o risco e colocá-lo sob controle. ao controle. Mesmo a teoria
da Organização de Alta Confiabilidade (HRO) é tão ambiciosa em seus requisitos
de liderança e design organizacional que a redução de acidentes a zero está
praticamente fora de alcance. Objetivos de segurança de liderança, manutenção de
sistemas operacionais relativamente fechados, descentralização funcional, criação
de uma cultura de segurança, redundância de equipamentos e pessoal e
aprendizado sistemático estão todos no menu necessário para alcançar o status de
HRO (Rochlin, LaPorte & Roberts, 1987). Embora algumas organizações possam
se aproximar mais de alguns desses ideais do que outras, não há nenhuma que
tenha fechado a lacuna perfeitamente, e não há garantias de que a manipulação
desses atributos manterá uma organização em zero (Sagan, 1993).

5. ALÉM DA VISÃO ZERO


Talvez seja hora, mais uma vez, de uma nova era na forma como consideramos o
papel dos seres humanos na criação da segurança do trabalho; tempo para pensar
além de zero. É claro que não devemos interromper o que estamos fazendo de
uma só vez, e algumas coisas nunca devemos interromper. Afinal, isso levou a
reduções significativas de danos e danos. Mas não devemos ter a expectativa de
que eles nos ajudarão a fazer muito mais do que manter os níveis atuais de
segurança em muitos setores. Ir além de zero levará muito tempo e uma transição
cultural significativa, com certeza. Dependerá de uma série de transições
principais:
· Precisamos fazer a transição de ver as pessoas como um problema para o
controle, para ver as pessoas como uma solução a ser aproveitada;
· Precisamos fazer a transição de ver a segurança como uma responsabilidade
burocrática para cima, para vê-la como uma responsabilidade ética para
baixo;
· Precisamos fazer a transição de ver a segurança como uma ausência de
negativos para vê-la como a presença de uma capacidade positiva de fazer as
coisas darem certo.
REFERÊNCIAS
Anon. (2013, 12 April). Jail for safety manager for lying about injuries, Associated
Press.

Beck, U. (1992). Risk society: Towards a new modernity. London: Sage Publications
Ltd.

Bernstein, P. L. (1996). Against the gods: The remarkable story of risk. New York:
John Wiley & Sons, Inc.

Bosk, C. (2003). Forgive and remember: Managing medical failure. Chicago, IL:
University of Chicago Press.

Burnham, J. C. (2009). Accident prone: A history of technology, psychology and


misfits of the machine age. Chicago: The University of Chicago Press.

Cook, R. I., & Nemeth, C. P. (2010). ‘‘Those found responsible have been sacked’’:
Some observations on the usefulness of error. Cognition, Technology and Work,
12, 87-93.

Dekker, S. W. A. (2005). Ten questions about human error: A new view of human
factors and system safety. Mahwah, N.J.: Lawrence Erlbaum Associates.

Dekker, S. W. A. (2011). The criminalization of human error in aviation and


healthcare: A review. Safety Science, 49(2), 121-127.

Dekker, S. W. A. (2012). Just Culture: Balancing safety and accountability (Second


Ed.). Farnham, UK: Ashgate Publishing Co.

Dekker, S. W. A. (2013). Second victim: Error, guilt, trauma and resilience. Boca
Raton, FL: CRC Press/Taylor & Francis.

Donaldson, C. (2013). Zero harm: Infallible or ineffectual. OHS Professional, 22-27.

Dörner, D. (1989). The logic of failure: Recognizing and avoiding error in complex
situations. Cambridge, MA: Perseus Books.

Farmer, E. (1945). Accident-proneness on the road. Practitioner, 154, 221-226.

Gawande, A. (2008). Better: A surgeon’s notes on performance. New York: Picador.

Gawande, A. (2010). The checklist manifesto: How to get things right (1st ed.). New
York, N.Y.: Metropolitan Books.

Green, J. (2003). The ultimate challenge for risk technologies: Controlling the
accidental. In J. Summerton & B. Berner (Eds.), Constructing risk and safety in
technological practice. London: Routledge.

IOM. (2003). Patient safety: Achieving a new standard for care. Washington, DC:
National Academy of Sciences, Institute of Medicine.
Pellegrino, E. D. (2004). Prevention of medical error: where professional and
organizational ethics meet. In V. A. Sharpe (Ed.), Accountability: patient safety and
policy reform (pp. 83-98). Washington: Georgetown University Press.

Perrow, C. (1984). Normal accidents: Living with high-risk technologies. New York:
Basic Books.

Pidgeon, N. F., & O’Leary, M. (2000). Man-made disasters: Why technology and
organizations (sometimes) fail. Safety Science, 34(1-3), 15-30.

Rasmussen, J. (1997). Risk management in a dynamic society: A modelling problem.


Safety Science, 27(2-3), 183-213.

Rochlin, G. I., LaPorte, T. R., & Roberts, K. H. (1987). The self-designing high
reliability organization: Aircraft carrier flight operations at sea. Naval War College
Review, 40, 76-90.

Sagan, S. D. (1993). The limits of safety: Organizations, accidents, and nuclear


weapons. Princeton, N.J.: Princeton University Press.

Scott, J. C. (1998). Seeing like a State: How certain schemes to improve the human
condition have failed. New Haven, CT: Yale University Press.

Turner, B. A. (1978). Man-made disasters. London: Wykeham Publications.

Vaughan, D. (1996). The Challenger launch decision: Risky technology, culture, and
deviance at NASA. Chicago: University of Chicago Press.

Vincent, C. (2006). Patient Safety. London: Churchill Livingstone.

Zwetsloot, G. I. J. M., Aaltonen, M., Wybo, J. L., Saari, J., Kines, P., & Beek, R.
(2013). The case for research into the zero accident vision. Safety Science, 58, 41-
48.

Você também pode gostar