Escolar Documentos
Profissional Documentos
Cultura Documentos
CAMPINA GRANDE –
PB 2022
THIAGO ANTONNY DE AZEVEDO GOMES
CAMPINA GRANDE – PB
2022
THIAGO ANTONNY DE AZEVEDO GOMES
APROVADO EM: / /
BANCA EXAMINADORA:
Prof.º da UniFacisa,
Prof.º da UniFacisa,
Dedico este trabalho a meus pais, Silvana Helena de Azevedo Pinto e
Antonio Gomes Neto, minha namorada, Letícia Soares Santanna, à todos
meus professores, que foram essenciais na minha formação, aos meus
instrutores de voo, que colaboraram com seus ensinamentos, e à Deus, que
esteve sempre presente durante todo este processo.
AGRADECIMENTOS
Agradeço primeiramente a Deus e aos meus pais, Silvana Helena de Azevedo Pinto e
Antonio Gomes Neto, por me proporcionar o dom da vida, assim como, os recursos e as
ferramentas necessárias para realização deste sonho e objetivo almejado.
Segundamente, a minha namorada que me motivou e apoiou durante os momentos difíceis,
em que tive que superar toda angústia em meio ao processo acadêmico com resiliência.
Agradeço também, especialmente a Vinicius Viana, Guilherme Trancoso, Pedro Pinheiro,
Menandro Paiva, Walter Barbosa, e todos os demais amigos que a aviação me presenteou
ao longo dessa jornada, no qual direta ou indiretamente, foram determinantes em manter-
se com a cabeça erguida, vibrante, de forma esperançosa em toda trajetória.
Agradeço a todos Instrutores de Voo, nos quais participaram do meu desenvolvimento
pessoal e técnico-profissional, viabilizando o enriquecimento da minha formação como
aviador.
Agradeço a todos os professores envolvidos na minha carreira e trajetória acadêmica ao
longo dos anos por onde passei, concedendo a honra de fazer parte de suas histórias de
ensino e legado.
Agradeço ao meu orientador, Prof.º Msc. Roberto Stolt, por ter aceitado este desafio e
proporcionar essa abertura para a troca de conhecimento e elaboração deste processo de
criação do meu TCC.
Por último, gostaria de agradecer grandemente a todos os familiares, meu Tio Octávio
Lamartine, amigos e pessoas que sempre torceram, apoiaram e estiveram ao meu lado
desde o início, muito obrigado.
“No meio da dificuldade, encontra-se a oportunidade”
Albert Einstein
RESUMO
1 INTRODUÇÃO 10
2.6 Automação 34
2.7 Fadiga 36
2.8 Estresse 39
3 CONSIDERAÇÕES FINAIS 42
REFERÊNCIAS 44
1 INTRODUÇÃO
Como consequência da evolução do comportamento humano em meio aos acidentes e
as percepções nas quais um indivíduo interage em seu ambiente de trabalho, inúmeras
observações foram feitas ao longo do tempo a partir desta natureza e, que por sua vez,
consolidaram uma atenção maior especialmente na aviação.
Assim, ferramentas de fatores humanos foram criadas, para comprovar que a
falibilidade da natureza humana estará sempre presente, uma vez que é apontada como uma
das maiores causadoras de eventos indesejáveis por nós humanos, por sermos suscetíveis ao
erro.
De acordo com, HEINRICH,(1931) “a ocorrência de um acidente é a natural
consequência de uma série de eventos ou circunstâncias que, invariavelmente,
ocorre em uma ordem fixa e lógica".
O diagrama para representar as interações entre esses diferentes componentes foi por ele
nomeado com as letras iniciais de cada fator “SHEL” (S = Software; H = Hardware; E =
Environment e L = Liveware), conforme abaixo:
Figura 2.1 - Modelo SHEL ilustrando a interação entre os três tipos de sistemas e o ambiente (EDWARDS, 1972).
Foi feita modificação gráfica das arestas recortadas de cada bloco para enfatizar que
neste modelo o desencaixe ou desencaixe de um dos blocos é também as próprias características
de cada bloco, demonstrando que outros componentes do
sistema devem ser cuidadosamente combinados. Para Hawkins, a incompatibilidade entre
interfaces pode representar erro humano. Este diagrama funcional não abrange interfaces que
não são fatores humanos (E-S; H-E e H-S) e destina-se apenas como uma ajuda básica para
entender as interfaces que estão associadas. Vamos ver como este modelo é apresentado no 238-
NA/143 (ICAO, 1992).
O operador humano está no centro do modelo SHELL. Como já mencionado , este
componente é geralmente considerado o componente mais crítico, mas também o sistema mais
flexível. A disciplina de Fatores Humanos busca identificar variações de desempenho e
limitações de pessoas para prever e mitigar erros indesejáveis. Comportamentos indesejáveis do
operador, como estresse por devem ser evitados para que não haja possibilidade do sistema.
Assim, entender as características deste componente central torna-se perceber a combinação
entre este fator e os demais. Abaixo apresentamos alguns exemplos de características
importantes do componente humano que devem ser analisados.
2.3. Este componente fornece ao operador humano informações visuais auditivas, por
exemplo dados sobre o estado do sistema ou sobre condições externas ao sistema e fornece
comandos que permitem que o ser humano faça alterações ao estado desses sistemas. O
componente humano é mostrado no lado esquerdo da Figura 2.3. A informação apresentada deve
ser percebida e processada para poder tomar decisões. A partir daí, as respostas motoras podem ser
enviadas para efetuar mudanças nas configurações do sistema através dos controles disponíveis. A
linha que separa a máquina e o homem representa a interface homem-máquina. As informações
trafegam através dessa interface em ambos os sentidos. Assim, os ergonomistas devem garantir que
os displays e comandos sejam compatíveis com as capacidades humanas e os requisitos
das tarefas.
Essa interface homem-máquina merece atenção especial. Como pudemos notar, a linha
que os separa é tênue e a distinção entre suas funções muitas vezes se destoam. As comparações
entre homem e máquina levam ao fato de que a integração entre esses dois componentes deve ser
feita de forma que os dois - homem e máquina - se complementem.
2.3 Modelo REASON
Nesta nova abordagem, encontraremos uma perspectiva mais de segurança que busca
focar em lacunas em todas as áreas do sistema e não em falhas individuais. É verdade que já
existiam métodos destinados a todos os setores da indústria aeronáutica, mas a principal novidade
deste novo sistema é a integração de todos eles. Além disso, todos os aspectos da organização
descritos no manual de treinamento de fatores humanos - como a supervisão oferecida pelas
companhias aéreas , a educação e treinamento continuado de seus trabalhadores, a
manufatura e a aviação equipamentos, infraestrutura, incluindo aeroportos serviços de tráfego
aéreo, eficiência regulatória e associações de trabalhadores e sindicatos, poderão
ser consolidados em um único programa estruturado baseado em um processo sistemático de
identificação de perigos e operações de análise de risco para as operações. Este tipo de sistema de
gerenciamento da segurança operacional foi recomendado pela ICAO através do Doc 9859,
“Safety Management Manual”, que serve como guia de implantação dos Programas de
Gerenciamento da Segurança adotados pelos Estados contratantes e por cada provedor de serviço
da aviação civil.
Assim, visando a melhoria dos índices da segurança operacional da aviação mundial, a
ICAO estabeleceu um novo modelo metodológico que incorpora os princípios de gestão da
qualidade, alocando responsabilidades, identificando os perigos e gerenciando os riscos. Essa
metodologia96 traz um guia de elaboração do Programa de Gerenciamento da Segurança
Operacional dos Estados e de cada provedor de serviços da aviação civil dos países membros da
ICAO. O Brasil, respeitando a sua condição de país signatário da ICAO, instituiu em 2008 o
Programa Brasileiro para a Segurança Operacional da Aviação Civil (PSO-BR), que inclui o
Programa de Segurança Específico da ANAC (PSOE-ANAC) e o Programa de Segurança
Específico da Aeronáutica (PSOE- COMAER).
Levando-se em consideração as condições latentes da organização, que
potencialmente podem causar danos às pessoas e propriedades, a novidade agora reside na
tentativa de quantificação do risco potencial, entendendo-se que as operações aéreas estão sempre
sujeitas a algum nível de risco. Assim, a segurança (safety) é definida como: “O estado em que o
risco de prejudicar pessoas ou danificar propriedades é reduzido a um nível aceitável e mantido
abaixo desse nível por meio de um processo contínuo de identificação de perigos e gerenciamento
do risco”97. (ICAO, 2012, Doc 9859
– NA/474, p. 11) Tradução nossa.
O objetivo maior passa a ser, então, a identificação dos perigos que podem ocasionar
algum tipo de dano, para se avaliar os níveis de probabilidade e de severidade
de risco às operações aéreas. O gerenciamento da segurança operacional promove a identificação
sistemática de perigos e a avaliação de riscos será feita a partir da correlação entre os perigos
identificados e os níveis de segurança que se pretende assumir nas operações analisadas. A partir
da avaliação dos recursos para a eliminação dos perigos identificados e/ou, conforme cada caso,
da restrição das operações aéreas, pretende-se definir de modo objetivo os níveis aceitáveis para a
segurança das operações.
A seguir apresentaremos um modelo esquemático das principais etapas do processo
de gerenciamento da segurança recomendado pela ICAO, a saber: Identificação de perigo, análise
de probabilidade e severidade de risco, avaliação dos níveis de tolerância e controle e mitigação
de risco.
Figura 2.4 – Processo de gerenciamento de risco da segurança (ICAO, 2012, Doc 9859-NA/464, p.150)
Uma das principais novidades trazidas por esse método está no sistema de
gerenciamento proativo para a segurança operacional a partir de dados gerados sistematicamente
durante as operações normais. Agora, não precisamos mais esperar pela ocorrência de um desastre
para se apurar as causas contribuinte do acidente. Esse novo modelo, então, antecipa-se às coletas
de dados decorrentes das investigações de acidentes e incidentes graves que geram ações reativas.
Outro aspecto relevante está na análise sistêmica das operações, que implica todos os setores e
descentra a busca intensiva sobre os erros cometidos pela tripulação técnica durante os momentos
finais que antecipam os acidentes.
O modelo de segurança do psicólogo britânico James Reason também será
considerado pela ICAO no atual gerenciamento da segurança, com o objetivo de superar a
interpretação linear que imputava ao erro do trabalhador praticamente toda a
responsabilidade pelos acidentes. Para Reason, os erros ativos praticados pelos operadores que
atuam nas linhas de frente das organizações são facilitados por falhas nas defesas organizacionais,
ou por certas condições latentes estabelecidas pelos idealizadores dos projetos, pelos responsáveis
por decisões de alto nível, pelos construtores dos sistemas operacionais, diretores ou pessoal de
manutenção, cujas consequências não são visíveis imediatamente podendo ficar encobertas
durante muito tempo. Os resultados para a segurança serão tanto melhores quanto maior for o
investimento nas descobertas dessas condições latentes. De acordo com Reason (1990), esse
método de análise apresenta resultados mais benéficos para a confiabilidade do sistema do que as
tentativas pontuais de reduzir erros ativos. Para mitigar as falhas latentes, toda organização deve
fazer uso de certos tipos de defesas, das quais ele destaca o treinamento das equipes, as
regulamentações, os procedimentos, a organização do trabalho, a gestão e, enfim, toda tecnologia
disponível.
Desse modo, o Doc 9859 (ICAO, 2012) adotou a formulação do “modelo Reason”, de
que os acidentes não decorrem de fatores isolados, uma vez que envolvem todo o sistema
organizacional a partir de violações sucessivas das defesas de segurança (REASON, 1997). Esse
modelo apresenta uma série de barreiras dispostas em camadas sucessivas para impedir que os
acidentes ocorram e permite ilustrar que algumas decisões remotas situadas nos mais altos níveis
da organização ou nas ações do pessoal de apoio e de execução das tarefas operacionais podem
produzir furos nessas barreiras de proteção e, mesmo que ninguém perceba imediatamente, as
condições desfavoráveis permanecem de modo latente até que seus efeitos ou potenciais danos
sejam ativados por falhas específicas da operação.
Assim, Reason (1997) destacou a existência de falhas ativas decorrentes das ações ou
omissões que incluem erros e violações com efeitos negativos imediatos, e condições latentes
presentes ao sistema sem que necessariamente ocorra um acidente ou mesmo qualquer outro
resultado danoso produzido por incidentes. As condições latentes podem permanecer dormentes
por um longo período de tempo, sem que ninguém as perceba como prejudicial, tornando-se
evidente quando as defesas do sistema são violadas. As falhas ativas geralmente estão associadas
ao pessoal da linha de frente (pilotos, controladores de tráfego aéreo, mecânicos de voo, etc.) por
estarem em condição de ativar as últimas defesas contra os acidentes, mas na verdade, todos os
acidentes resultam da combinação das condições latentes (que emergem após o fracasso das
defesas) e das falhas ativas.
A Figura 2.5 apresenta a trajetória do acidente que não pôde ser impedido pelas
defesas disponíveis. As linhas que conduzem ao acidente foram favorecidas pelos
fatores organizacionais desfavoráveis, pelas más condições do local de trabalho, facilitando
os erros, ou as violações deliberadas cometidas pelas pessoas.
Figura 2.5 - Modelo causal do acidente (James Reason) (ICAO, 2012, Doc 9859-NA/464, p.13)
Esse modelo tornou-se conhecido como “Modelo do Queijo Suíço” (Swiss Cheese Model)
por causa dos furos delineados pela trajetória do acidente, que “consegue” atravessar o queijo, ou
as barreiras organizacionais (processos organizacionais, condições de trabalho, erros e violações
individuais) e todas as defesas que protegem as operações aéreas das flutuações do desempenho
humano. Esse modelo também nos mostra que as condições latentes podem estar presentes no
sistema, independentemente da ocorrência do acidente, se manifestando através de fatores locais
desencadeantes.
Para referir-se aos acidentes que ocorrem em sistemas complexos que utilizam tecnologias
de alto risco, Michèl Llory (1996, 1999) estabeleceu a noção de acidente organizacional. Na visão
desse autor, as análises sobre o trabalho devem contemplar as dimensões macro e micro dos
sistemas enfatizando a percepção dos operadores de “chão de fábrica” e também a de suas chefias
intermediárias, que permanecem silenciosas na maioria dos eventos de segurança. O Safety
Management Manual (SMM) da ICAO utiliza a perspectiva do acidente organizacional,
integrando-o ao modelo de análise da segurança de Reason. A perspectiva subjacente ao acidente
organizacional tem como objetivo identificar os perigos para mitigar as condições latentes da
organização e seus sistemas operacionais, em vez de investir todos os esforços apenas no combate
das falhas ativas dos indivíduos.
O diagrama a seguir integra a noção de acidente organizacional ao Modelo Reason, a partir
de cinco blocos que situam os processos nos quais o acidente pode ser desencadeado.
Figura 2.6 – O acidente organizacional. (ICAO, 2012, Doc 9859-NA/464, p.14)
O bloco de cima localiza os processos organizacionais. Nesse bloco estão incluídos todos os
processos que podem ser diretamente controlados pela organização com seus próprios recursos.
Esses processos envolvem a elaboração de políticas, o planejamento das atividades, os sistemas de
comunicação interna entre os diferentes setores e entre os trabalhadores, as decisões sobre a
alocação de recursos da empresa e assim por diante. Vale notar que, dentre todos os processos
organizacionais, o Doc 9859 destaca a alocação de recursos e a comunicação como principais.
Deficiências nos processos organizacionais podem provocar uma via dupla para o fracasso.
A primeira é a via das condições latentes, seguindo o caminho das setas da direita no esquema
representado na Figura 3.4. As condições latentes podem incluir as deficiências de projeto dos
equipamentos, os procedimentos operacionais incompletos ou fora do padrão e deficiências no
treinamento do pessoal. Em geral, as condições latentes podem ser descobertas a partir das pistas
deixadas por dois grandes grupos de ações desfavoráveis. O primeiro diz respeito ao inadequado
processo de identificação dos perigos. Isso compromete o sistema de gerenciamento de segurança
por não permitir que os riscos sejam mantidos sob o controle da organização, permanecendo
livremente no sistema e podendo a qualquer tempo tornar-se ativo por meio de gatilhos
operacionais. O segundo pode ser chamado de normalização do atalho, na medida em que certos
contextos operacionais serão naturalizados a tal ponto que a exceção acaba se tornando a regra. A
falha na alocação de recursos pode intensificar a normalização do atalho, de modo que a única
maneira encontrada pelo pessoal operacional, responsável pelo desempenho efetivo das atividades
de produção, para alcançar o êxito das atividades é através de atalhos ou de improvisações. Isso
implica a constante violação das regras e
procedimentos e tem potencial para romper as defesas do sistema que na aviação se distribuem
através da tecnologia, do treinamento e dos regulamentos. Essas defesas geralmente constituem a
última rede de segurança para conter as condições latentes, assim como as falhas do desempenho
humano. A maioria, senão todas, as estratégias de atenuação dos riscos de segurança está baseada
no reforço das defesas existentes ou no desenvolvimento de novas defesas.
A outra via proveniente dos processos organizacionais é a via das condições do local de
trabalho (seguindo o caminho das setas da esquerda do esquema da Figura 3.4). As condições do
local de trabalho influenciam diretamente a eficiência das pessoas que atuam nas empresas de
aviação. Suas falhas são facilmente percebidas a partir de alguma experiência operacional e podem
ser experimentadas de diversas formas: instabilidade no emprego, baixa qualificação, falta de
experiência, falta de confiança na relação estabelecida com a hierarquia gerencial, baixo moral do
grupo, além das falhas nos tradicionais fatores conhecidos há um bom tempo pela ergonomia física
como iluminação, temperatura ambiente etc.. As deficiências nas condições do local de trabalho
podem promover falhas ativas do pessoal operacional, levando-os a cometer erros ou violações.
A diferença entre erros e violações está no componente motivacional. Uma pessoa tentando
fazer o melhor possível para realizar uma tarefa e que se esforça para seguir as regras e
procedimentos de acordo com a formação recebida pode, ainda assim, cometer erros e não cumprir
o objetivo da tarefa em questão. Mas a pessoa que intencionalmente se desvia das regras,
procedimentos ou treinamento recebido, comete uma violação. Assim, a diferença básica entre
erros e violações está na intenção do trabalhador.
Assim, os esforços para o gerenciamento da segurança devem proporcionar um adequado
monitoramento dos processos e os investimentos devem contemplar as melhores condições para o
ambiente de trabalho, visando mitigar as falhas ativas. As rupturas ou os furos nas barreiras de
segurança, produzidas pela combinação desses fatores organizacionais, farão com que as operações
executadas não ocorram conforme o planejado. Os desvios nas operações decorrentes dos fatores
organizacionais se somam às influências externas e às mudanças práticas do ambiente operacional
e regulatório durante a execução das operações.
Embora as organizações desenvolvam planos e procedimentos para lidar com situações
perigosas, esses planos estão sujeitos a modificações locais. Na vida real, ou prática, existirá
sempre uma diferença entre o desempenho operacional executado e o que foi planejado na linha de
base. Por isso, o termo “deriva prática”98 foi utilizado no Safety Management Manual (SMM) da
ICAO para designar o desvio entre as operações executadas e as planejadas. O termo “deriva”
aponta para o desvio do curso pretendido
devido às influências organizacionais e externas. A Figura 3.5 a seguir apresenta graficamente o
desempenho idealizado para o desenvolvimento do sistema operacional desde a concepção do
projeto (linha horizontal), o ângulo produzido pela deriva prática, a partir do desempenho
operacional executado e, finalmente, o acidente.
Embora a deriva prática ocorra naturalmente em qualquer sistema, algumas razões podem,
contudo, intensificá-lo ao ponto de ultrapassar todas as defesas concebidas para evitar um acidente,
a saber, a tecnologia que nem sempre funciona conforme o previsto, os procedimentos planejados
que não podem ser executados sob certas condições operacionais; os regulamentos incompatíveis
com determinados contextos; alterações no sistema, incluindo a adição de novos componentes; a
interação com outros sistemas, e assim por diante. Apesar das deficiências promovidas pela deriva,
na prática, as pessoas operam mesmo assim a partir de adaptações locais e de estratégias pessoais
buscando soluções não previstas nos manuais. Daí a importância de analisar as informações sobre o
que ocorre durante a deriva prática.
Essas informações podem nos ensinar sobre as adaptações bem-sucedidas para a segurança,
fortalecendo o controle e a mitigação dos riscos. Quanto mais perto do início da deriva prática
forem capturadas as informações, maior será o número de perigos identificáveis na previsão dos
riscos para a segurança. Mas a proliferação desenfreada de adaptações locais e de estratégias
pessoais para lidar com os improvisos pode fazer com que a deriva prática se afaste muito da
referência esperada para o desempenho operacional aumentando a possibilidade de ocorrência de
incidentes ou mesmo de um grande acidente.
2.4 HUMAN FACTORS ANALYSIS AND CLASSIFICATION SYSTEM
As estimativas da literatura indicam que entre 70 e 80 por cento dos acidentes aéreos
podem ser atribuídos, pelo menos em parte, a erros humanos (SHAPPELL e WIEGMANN, 1996).
A visão tradicional de que as investigações de acidentes são um pouco mais do que um esforço
para atribuir culpas pode ser verdade para algumas investigações, como: Processos judiciais, os
créditos de seguros, mas a maioria dos pesquisadores de segurança argumenta que o seu objetivo é
simplesmente impedir o acidente de acontecer novamente. No domínio da aviação, geralmente se
considera que os acidentes são oresultado de uma cadeia de acontecimentos que culminaram com
atos inseguros de operadores (ou seja, tripulantes). A aviação não está sozinha nessa crença, como
a comunidade em geral tem abraçado uma teoria seqüencial de investigação de acidentes desde
que HEINRICH, em 1931, publicou seu primeiro axioma sobre da segurança industrial.
As análises dos acidentes aéreos são baseadas, na maioria das vezes, nos dados da
investigação e nos erros cometidos pelos tripulantes. Infelizmente, a maioria dos sistemas de
investigação não se baseia em um quadro teórico de erro humano. Na verdade, as teorias
empregadas são voltadas a aspectos da engenharia mecânica e os fatores humanos são variáveis
mal definidas, que acabam conduzindo a uma análise tradicional do erro humano. DEKKER
(2002) sugeriu que, ao invés de procurar o que fizeram de errado, talvez fosse melhor despender
esforços tentando compreender a razão pela qual determinado ato ou comportamento parecia certo
para o indivíduo naquele momento.
Shappell e Wiegmann (2000), com base na teoria de Reason (1990), desenvolveram um
modelo para análise e classificação dos erros humanos, com foco na aviação civil e militar,
denominado Human Factors Analysis and Clarification System (HFACS).
O sistema HFACS foi dividido em quatro níveis de falhas humanas:
• Atos inseguros dos operadores
• Pré-condições para atos inseguros (fatores e condições pessoais e ambientais).
• Supervisão insegura
• Influências organizacionais.
Os atos inseguros podem ser classificados em duas categorias: erros e violações (REASON,
1990; SHAPPELL; WIEGMANN, 2000).
Os erros representam as atividades mentais ou físicas dos indivíduos que falham
em alcançar o objetivo pretendido. As violações, por outro lado, referem-se ao desrespeito das
regras e regulamentos que compõem a segurança operacional na organização.
Conforme pontua Shappell e Wiegmann (2004), os erros podem ser divididos em erros de
decisão, erros de habilidade e erros de percepção.
Os erros de habilidade são aqueles que ocorrem de forma inconsciente, sendo comuns as
falhas de atenção, de memória ou de técnica. Alguns exemplos de falhas de atenção: operação
inadvertida dos controles, falha de memória, omissão de um item do checklist, quebra na varredura
visual dos instrumentos.
Os erros de decisão representam um comportamento intencional, ações ou omissões que se
mostram inadequadas, ou inapropriadas para a situação. Os erros de decisão são classificados:
erros de procedimento, erros devido às escolhas ruins e erros na resolução de problemas.
São alguns exemplos de erros de decisão: referentes a procedimentos que ocorrem quando a
situação é mal diagnosticada ou mal interpretada levando a execução incorreta de um
procedimento. Os erros de decisão são devido às escolhas ruins que acontecem com tripulações
com pouca experiência, com pouco tempo para tomada de decisão e pressões externas. Finalmente,
os erros de resolução de problemas são aqueles para os quais não existem procedimentos formais,
não são bem compreendidos e para os quais as respostas não são prontamente disponíveis, ou seja,
os indivíduos precisam inventar soluções novas.
Embora a frequência deste tipo de erro seja menor, a proporção de ocorrências é alta.
(SHAPPELL; WIEGMANN, 2000)
Os erros de percepção ocorrem quando a tripulação difere da realidade e a tomada de
decisão é feita a partir de informações processadas pelo cérebro que não são reais. As condições
que levam as tripulações aos erros de percepção incluem a desorientação espacial, as ilusões
visuais ao mau julgamento de velocidade, altitude e atitude da aeronave (CAMPOS, 2013).
As violações são um desrespeito às regras e regulamentos que governam a segurança.
Ocorrem quando o indivíduo descumpre normas e regulamentos. As violações são classificadas
como rotineiras e excepcionais.
As violações de rotina ocorrem de maneira habitual e possuem a ciência da gerência, como
por exemplo a desobediência aos manuais, ordens e regulamentos. Por outro lado, as violações
excepcionais ocorrem de maneira ocasional e não são toleradas pela gerência. Exemplos como
técnica de decolagem imprópria, exceder os limites da aeronave são classificados como violações
excepcionais.
As pré-condições para atos inseguros são situações nas quais existem uma grande
probabilidade de existir um ato inseguro. São divididos em três categorias a saber: condições dos
operadores, fatores pessoais e fatores ambientais (SHAPPELL, 2000).
As condições dos operadores sejam elas físicas, mentais e fisiológicas exercem grande
influência na tomada de decisão dos tripulantes. Elas incluem o estado mental adverso, o estado
fisiológico adverso e as limitações físicas ou mentais do indivíduo. A perda de consciência
situacional, fadiga mental, disritmia circadiana e atitudes perigosas, como excesso de confiança,
complacência e motivação equivocada, afetam negativamente as decisões e contribuem para atos
inseguros.
A fadiga leva a uma diminuição progressiva da habilidade do homem para realizar uma
determinada tarefa, que pode se manifestar através da deterioração da qualidade do trabalho,
imprecisão, desinteresse, tédio, falta de entusiasmo, apatia entre outros (IAC 060- 1002, 2005).
Os fatores ambientais são externos ao ser humano, mas podem influenciar de forma
desfavorável no desempenho da tripulação. Esses fatores se classificam como físicos (ex:
variações do clima, iluminação e altitude) e fatores tecnológicos (ex: design de equipamentos e
controles, layout de checklists e equipamentos de comunicação).
Os fatores pessoais compreendem as maneiras inseguras que os tripulantes realizam
determinadas atividades que estão sob suas responsabilidades. Estão classificadas em Crew
Resource Management (CRM) e prontidão pessoal.
O CRM refere-se ao gerenciamento dos recursos na cabine buscando uma melhor
coordenação entre os tripulantes e todos os operadores envolvidos na atividade aérea em prol da
segurança de voo.
Como pontua a IAC 060-1002 (2005), o CRM abrange todas as equipes que compõem a
atividade aérea, não somente limitado pelos tripulantes técnicos, mas as equipes de manutenção,
despachantes operacionais de voo e de terra, pessoal de rampa, check-in, direção e administração.
A prontidão pessoal se refere ao tripulante estar apto física e mentalmente na apresentação
ao trabalho. A automedicação e ingestão de bebidas alcoólicas são exemplos que podem levar a
ocorrência de atos inseguros.
Segundo Shappell e Wiegmann (2000) a supervisão insegura são decisões inadequadas ao
nível gerencial que podem causar atos inseguros nas operações. A supervisão insegura é dividida
em supervisão inadequada, planejamento inapropriado de operações , falha em corrigir um
problema conhecido e violações da supervisão.
A supervisão inadequada ocorre quando há falhas na capacitação de equipe seja no
treinamento, liderança, orientação e vigilância por parte da gerência e que resultam em atitudes
que afetam a segurança de voo (CAMPOS, 2013).
O planejamento inapropriado de operações, refere-se ao deficiente planejamento dos
horários de apresentação e descanso da tripulação que podem impactar no desempenho das
atividades aéreas.
As falhas em corrigir problemas conhecidos são problemas que possuem a ciência de
gerência e membros da equipe e que continuam sendo tolerados e nenhuma ação de correção é
adotada.
As violações de supervisão são a quebra de normas e regulamentos cometidos
deliberadamente pela própria supervisão.
As influências organizacionais, tais como o gerenciamento de recursos, o clima
organizacional e o processo organizacional podem influenciar decisões falíveis nos níveis mais
altos das organizações.
As falhas no gerenciamento de recursos são questões relacionadas ao processo decisório
equivocado na aplicação dos recursos na área pessoal, equipamento e instalações
As falhas no clima organizacional referem-se a políticas mal estabelecidas e cultura mal
adotada.
Por último, as falhas no processo organizacional referem-se a normas e decisões das
atividades diárias de uma organização. (CAMPOS, 2013).
A figura 2.8 mostra os níveis e suas categorias, com a direção de suas interações.
Figura 2.8 – Modelo do HFACS adaptado por SHAPPELL e WIEGMANN (2000).
2.5 A linguagem utilizada no ambiente de trabalho
As formações discursivas se constituem não apenas por elementos das falas destacadas nas
manifestações dos sujeitos em interlocução, mas por seus gestos nos postos de trabalho, seus
modos típicos durante o desenvolvimento da tarefa, pelo uso de seus corpos em horários e turnos
adversos, pelo perfil profissional exigido para a função, pelas roupas, uniformes e, enfim, pelos
recortes possíveis de serem feitos numa realidade regularmente vista como transparente. O sentido
dado para a linguagem em nosso estudo jamais se conformar em situá-la como um recurso ou mero
instrumento de comunicação, o que reforçaria a ideia já superada pela Ergonomia da Atividade
(GUÉRIN et al., 1991) segundo a qual o trabalho prescrito pela administração deve ser igualado ao
trabalho efetivamente realizado, similar à concepção que respaldavam os fundamentos da
organização científica do trabalho (Taylor, 1911).
Ao mesmo tempo em que a linguagem é socialmente reconhecida nas relações de trabalho,
a forma de atenção que lhe vem sendo conferida traz em seu bojo uma tentativa de controle da fala
(SOUZA E SILVA, 2002). A concepção taylorista de racionalização das posturas dos
trabalhadores nas linhas de montagem, através da segmentação do trabalho executado sob forte
controle temporal, se revela no projeto de comunicação para o tráfego aéreo na medida em que
busca mecanizar e controlar a interlocução dos operadores, sem a devida consideração ou
tolerância para com aspectos fundamentais da linguagem humana. Tudo isso se alinha com a ideia
de racionalização da comunicação, ou nas palavras de Boutet: “(...) assiste-se, atualmente, a um
vasto movimento de racionalização da comunicação que acarreta procedimentos de
estandardização e de controle da atividade da linguagem: ela é analisada, decomposta, formatada,
racionalizada”. (BOUTET, 1998, p. 161)
Poderíamos objetar, sem dúvida, que as aeronaves e todos os aparatos que a sustentam
exigem mesmo um projeto de comunicação racional e objetivo. O que nos levaria a pensar que a
transmissão de informações trocadas entre as aeronaves e as bases onde são controladas seria
melhor executada por máquinas, prescindindo, assim, dos fatores humanos referidos à
comunicação, tão sujeitos à polissemias. Mas o que nos salta aos olhos é que esse projeto
desenhado para ser executado por um sistema desprovido de atributos humanos não seja notado em
sua concepção. Muito ao contrário, encontramos nos discursos da aviação a propagação da ideia de
que o aeronauta é uma espécie de mal necessário ao sistema, e que “a comunicação entre pilotos e
controladores é ainda altamente dependente do fator humano”. Em lugar da reflexão crítica sobre a
concepção de um projeto de comunicação elaborado para ser executado por um homem-máquina,
encontramos uma cruzada dogmática movida pela inquisição dos erros. Identificação e
controle, treinamento e mitigação, ou ainda, em termos atuais, gerenciamento dos erros cometidos
ou do porvir.
Dez anos depois do Primeiro Seminário Internacional sobre Fatores Humanos da ICAO142
Jean Pariès fez um balanço sobre as atividades desenvolvidas no campo dos fatores humanos em
Conferência proferida no Fourth ICAO Global Flight Safety and Human Factors Symposium no
Chile, intitulada Ten years of human factors and flight safety (ICAO, 1999, Circular 277-AN/163).
Além de engenheiro graduado pela École Nationale de L'Aviation Civile e de ter trabalhado como
vice-chefe do Departamento de Investigação de Acidentes da França (Bureau Enquetes Accidents),
Pariès atuou como piloto profissional. Não poderíamos dizer que isto lhe confere inteiramente a
perspectiva do operador, se aproximando daquela posição descrita por Joanne Aux (1999) para
referir-se aos analistas que podem descrever o trabalho “a partir de dentro”, mas a descrição do
trabalho do aeronauta apresentada em seu discurso não corrobora o pensamento de que o operador
deve ser concebido como um simples sistema de execução da tarefa prescrita. Interessamo-nos,
particularmente, por sua descrição do erro humano durante as operações aéreas, uma vez que
ilustra, de certo modo, a possibilidade de se analisar a atividade visada pelo ponto vista da tarefa,
atividade aqui considerada como a elaboração, por parte do sujeito, de sua própria tarefa
(LEPLAT, 1997).
O programa de fatores humanos da ICAO e algumas iniciativas nacionais e internacionais
durante a década de 1990 promoveu um imenso fluxo de ideias, com grande troca de experiências
e perspectivas entre as pessoas, academia, órgãos reguladores e profissionais de segurança da
aviação, disseminando conceitos e solucionando problemas. O discurso de Pariès se insere nesse
contexto, mas a forma como resume esse imenso fluxo de ideias, através de fórmulas apresentadas
em um tom quase provocativo, parece-nos incidir sobre certas verdades cristalizadas acerca de
algumas ideias mitificadas na aviação, dentre elas, a de que os erros não causam acidente.
O modelo do queijo suíço de James Reason relaciona o comportamento individual e a
segurança das ações individuais a uma série de fatores que incluem as decisões de gestão e os
processos organizacionais, a seleção, os treinamentos, procedimentos, projeto do cockpit,
condições de trabalho, e a diversidade cultural, da empresa, dos profissionais e etnográfica.
Considerando esse modelo e, muito provavelmente, a noção de acidente normal estabelecida por
Charles Perrow (1999) para descrever acidentes característicos de sistemas complexos, Pariès
conclui que a autonomia do trabalhador inserido num sistema tão complexo e gerido por ações
integradas em torno de objetivos nem sempre comuns, torna-se restrita, de modo que as análises
referidas à segurança não devem recair sobre o plano individual e que, nesse sentido, os sistemas
governam a sua própria
segurança.
Em seu livro Normal accident. Living with high risk technologies, Perrow observou que a
complexidade sistêmica das tecnologias de alto risco traz consigo a possibilidade, sempre presente,
de interações de natureza inesperada que suscita a ocorrência de certos tipos de acidentes. Tais
acidentes tornam-se inevitáveis na medida em que vão sempre ultrapassar as capacidades de
controle disponíveis, dependentes que são das interligações existentes nos sistemas. O risco,
portanto, decorreria menos dos elementos isolados, por serem identificáveis, do que desse tipo de
interação, denominada por ele de complexa. As interações estariam presentes em todo tipo de
sistema, mas nos sistemas lineares predominam interações mecânicas e previsíveis, como seria o
caso das interfaces entre os componentes isolados definidos pelo Modelo SHEL. Nos sistemas
complexos predominam possibilidades de interações provenientes de fatores imprevisíveis e além
do alcance da percepção ordinária. Considerados isoladamente, tais fatores geralmente são
avaliados como sem consequências para a segurança, inclusive por operadores experientes, mas
sua evolução acabaria resultando em um evento catastrófico. Assim, na medida em que ampliamos
as interações dos sistemas, aumentamos também a sua capacidade de funcionamento e o grau de
exposição às falhas, desafiando os tradicionais modelos lineares de análise e exigindo de nós
“sistemas de pensamento” mais sofisticados.
Apesar de a indústria aeronáutica ter recebido significativa melhoria da segurança desde a
década de 1970, de acordo com a avaliação de Pariès é pouco provável que continuemos evoluindo
na mesma proporção. As abordagens “normativas” de segurança mundialmente utilizadas144 são
baseadas em uma metáfora simplista e inadequada para representar os sistemas sócio técnicos, na
medida em que nos induz a apreendê-los como máquinas determinísticas e lineares. Tais
abordagens são inerentemente reativas, seguindo uma rotina circular do tipo projeto-voo-falha-
correção que não acompanha o tempo real dos processos dinâmicos. A evolução do sistema
aeronáutico se deparou com a necessidade de uma conceituação mais realista da interação homem-
tecnologia. Em sua opinião o potencial para melhoria torna-se muito delicado quando utilizamos
apenas abordagens normativas de segurança, por entender que os resultados acabariam produzindo
efeitos colaterais, na medida em que impediriam a apreensão dos mecanismos naturais referidos ao
gerenciamento de risco humano. Por isso ele sugere outra metáfora como alternativa ao modelo
“máquina”, referindo-se a “ecologias”. Essa referência à ecologia sugere que os sistemas não são
totalmente estáveis e não podem ser inteiramente especificados. Eles são adaptáveis e estão
constantemente em adaptação ao tempo local, individual e real dos operadores da linha de frente,
assim como a períodos
mais longos, em nível global e coletivo. Para Pariès, as duas abordagens, normativa e ecológica,
devem ser combinadas e entendidas como complementares. Essa mudança de enfoque mudaria o
entendimento dos processos relacionados ao homem que, desde a formação deveria receber
conhecimento suficiente para compreender adequadamente o que faz e por que o faz em um nível
operacional pertinente. O operador seria compreendido, então, como “inteligente” e não como
mero executor de tarefas seguindo as especificações a partir de uma obediência cega.
Pariès acredita que tendemos a pensar que os erros humanos causam acidentes,
simplesmente porque na maioria das vezes o cenário dos acidentes inclui os erros. Entretanto, os
erros também ocorrem durante as operações normais e bem sucedidas, sem que haja,
lamentavelmente, estatísticas para a sua quantificação. Essa perspectiva questiona a correlação
entre erro humano e acidente, ponderando o elevado índice estatístico referido à contribuição dos
erros humanos para os desastres aéreos. Quando atribuímos ao elemento humano à vulnerabilidade
do sistema negligenciamos o fato de que a partir dos erros as pessoas também criam soluções para
garantir a segurança.
Assim ele nos interroga: Como alguma coisa que acontece tantas vezes nos voos seguros
poderia explicar algo tão excepcional como um acidente? Para validar essa hipótese causal do tipo
linear, teríamos que desconsiderar todas as demais contingências envolvidas no plano existencial
das operações aéreas. Durante as operações normais os pilotos conversam entre si e cometem os
erros naturais da comunicação humana. Os operadores erram para acertar e as operações dependem
desse processo natural de correção e acerto continuados sobre os erros cometidos. O que o levou a
concluir que os erros humanos não causam acidentes e que o número e a natureza dos erros
produzidos pelos operadores não são tão relevantes para a segurança quanto seriam as análises
voltadas para os níveis de tolerância do sistema aos erros cometidos.
A crítica de Pariès à concepção que considera o erro humano como o principal fator
contribuinte para os acidentes está apoiada na teoria cognitiva do médico ergonomista René
Amalberti. Em seu livro La conduite des systèmes à risques, esse autor desenvolve a ideia de que
os trabalhadores assumem um compromisso cognitivo entre os riscos internos e externos ligados,
respectivamente, aos limites de suas capacidades intelectuais e ao nível do desempenho visado. Os
erros seriam, na verdade, momentos de incompreensões presentes na atividade que fazem parte dos
mecanismos de regulação desse compromisso assumido pelos operadores. Isso implica
compreender o processo a partir do gerenciamento permanente do risco assumido. Pois se os
operadores da linha de frente produzem erros, são eles que possuem a capacidade de detectar e de
avaliar as
possíveis consequências de tais erros, corrigindo ou mitigando os erros intoleráveis sem
desperdiçar recursos para a correção dos erros de menor gravidade, inofensivos. Os operadores
humanos são, na verdade, os gestores de risco (AMALBERTI, 1996). Permanentemente eles
devem arbitrar entre objetivos conflitantes enfrentando e gerenciando os “desvios” decorrentes de
seus próprios erros e violações, bem como de falhas técnicas e eventos inesperados. O sucesso do
gerenciamento de risco depende da adequada percepção desses riscos, ou da sensibilidade do
operador para "sentir os limites" de tolerância do sistema.
A partir dessa perspectiva, paradoxalmente, os erros servem de indicadores para a
segurança, uma vez que eles sinalizam os limites, como uma espécie de "bandeira" que pode ser
identificada e memorizada. Através dos erros, os operadores podem identificar as atividades de
risco e as "margens" do comportamento seguro. Os erros contribuem para a segurança na medida
em que nos ensina a ter cuidado. Trabalhadores mais experientes erram mais, mas contam com
mais recursos para identificar e corrigir esses erros. E como os erros fazem parte da condição
humana, de acordo com Pariès não seria uma boa estratégia simplesmente pedir para as pessoas
não cometerem mais erros.
2.6 Automação
2.7 Fadiga
Provocado por vários fatores, a fadiga atinge o estado físico e mental, e até mesmo pelas
noites de sono mal dormidas, diminuindo a aptidão humana para qualquer tipo de serviço, fazendo
com que o desempenho tenha uma queda lastimável. E a pior parte é que a pessoa fadigada não
reconhece esse cansaço (GOMES, 2014). De acordo com Pelegrini et al. (2015) a fadiga surge
diante da diferença entre o desgaste físico e mental, que se pode ser saciada com sono de
quantidade certa e qualidade.
As causas mais comuns relacionadas a fadiga são: poucas horas de sono; distúrbios durante
o sono; interrupção do ritmo circadiano; estresse mental ou emocional relacionados a problemas de
família, ansiedade ou mesmo o estresse de um check; excesso de esforço físico (exercícios
pesados) e; problemas de saúde, incluindo uma dieta pobre e desidratação (RAYOL, 2019).
Para Borges et al. (2018) a fadiga é uma das características da síndrome de Burnout,
também tem como atribuições exaustão, sensação de fraqueza, cansaço extremo, dificuldade de
concentração, instabilidade emocional, problemas de memória, além de falta de motivação.
Rayol (2019) afirma que o estado fisiológico da perda de capacidade da execução mental ou
físico, por falta de sono, vigília estendida, atividades físicas que podem atrapalhar o estado de
alerta e a prática de operar com segurança uma aeronave ou executar tarefas relacionadas à
segurança.
A redução do risco de fadiga é necessária, e assim sendo, Gomes (2014, p.3) lista em ordem
de ações:
fadiga;
1. Melhorar a conscientização do empregador e do
trabalhador sobre a
“Em uma visão mais usual da fadiga, as pesquisas vêm considerando quase que
exclusivamente os efeitos da propensão homeostática do sono e do ritmo circadiano e suas
interações” (CELESTINO, 2017, p.24).
Não apenas reconhecida pelo cansaço físico, mas também por resultados fisiológicos como
sentimentos subjetivos, e do baixo desempenho, a fadiga é uma relação as respostas que marcam o
estado de fadiga (MATTHEWS, 2012).
Devido a jornadas variáveis e turnos, a fadiga tem atingido pilotos aéreos, pertinente ao
sono insuficiente, dessincronização do ritmo circadiano, principalmente em operações de voo civil
e militar, ocasionando erros e acidentes aéreos.
Para Gonçalves (2011, p.248) a fadiga na aviação civil tem como definição como “uma
condição que se caracteriza pela diminuição da eficiência do tripulante no desempenho da
atividade aérea, relacionada com a duração ou repetição de vários estímulos ligados ao voo”.
Segundo Nascimento et al. (2016) um piloto de voo tem que ter muito desempenho nas
operações, a falta de concentração e atenção, acabam reduzindo a capacidade de análise desses
pilotos, principalmente em no momento de uma situação de alta demanda, a interpretação não sai
como deveria ser, perde a precisão no manuseio dos comandos, perde a autoconfiança, a
autocritica, e a coordenação.
De acordo com Duarte (2017) as aeronaves informatizadas e provenientes de novas
tecnologias, acabam criando uma monotonia e até mesmo fadiga entre os pilotos, pois
desempenham poucas ações. Porém, quando há alguma ação a ser tomada de imediato, o piloto fica
incapaz de agir e de tomar a atitude correta, pois a fadiga do voo tomou conta de suas emoções e o
debilitou, prejudicando o processo de prontidão no momento da emergência.
Santi (2009) afirma que o descanso e um bom sono são essenciais para pilotos que realizam
voos de longos percursos.
E assim sendo, a fadiga nunca anda sozinha, se ligando ao estresse do dia-dia.
2.8 Estresse
Englert (2006) afirma que os sinais de estresse alteram o estado fisiológico de muitos
órgãos, como os rins, coração, estômago, sistema reprodutivo e músculos, alertando o organismo
de um possível perigo. Podendo ser ativado diante de algumas emergências e desativado quando o
evento estressor terminar, oferecendo tempo para que os órgãos afetados se recuperem.
A fase de alerta se caracteriza por reações do sistema nervoso simpático; acontece quando o
organismo entende o estressor, produzindo adrenalina ou dopamina e aumentando a produtividade,
a criatividade e a atenção. A resistência se expõe quando o estressor persiste por períodos
distendidos, ou, no caso de aparecerem novos estressores, quando o organismo tentar obstar um
abatimento total de energia. A fase da quase- exaustão qualifica-se por expor um indivíduo muito
frágil fisicamente e psicologicamente, produzindo uma tensão que se sobreponha à resistência
física. A ansiedade se eleva, estabelecendo os mecanismos imunológicos do indivíduo, que fica
suscetível a doenças leves. A última fase é a mais negativa do estresse: a exaustão. Nesta fase a
falta de concentração para estudar e ou trabalhar é muito grande, tanto que acaba desenvolvendo
doenças graves como úlceras, hipertensão e dermatites (PAGGIARO e CALAIS, 2009).
Para Margis et al. (2003) o estresse constante provoca esgotamento, baixa produtividade
profissional. Porém cada indivíduo corresponde de forma diferente, dependendo da interação e
característica da pessoa afetada.
Castilho, Maximino (2006) corrobora que um estresse físico pode ser estimulado por um
traumatismo qualquer e um estresse psicológico pode ser qualquer raciocínio eficaz a ponto de
fazer com que o organismo entre em estado de perigo. Ele tem o mesmo início para qualquer
pessoas, embora as fontes estressoras sejam variadas; assim, pode- se compreender que em um
organismo estressado, sempre haverá uma frequência cardíaca elevada e a liberação de açúcar pelo
fígado para obter mais energia; as pupilas se dilatam e a visão se amplia para que se enxergue na
penumbra; a coagulação do sangue com maior índice de rapidez, e vai dos vasos periféricos para os
músculos e para o cérebro, facilitando, assim, uma ação mais rápida, enquanto a atividade dos
glóbulos brancos se intensifica, preparando o corpo para reparos de emergência.
Os sentimentos (psicológico) ficam abalados quando o estresse afeta a pessoa e Beck; Steer
(1997) descreve isso de forma sucinta através de estudos apostados por Tavares (2005) os
pensamentos agem nas ações e sentimentos, para melhorar o humor.
Conforme Beck J. (1997), nossos pensamentos operam exatamente na maneira com nosso
estado de humor é supervisionarmos nossos pensamentos, de modo a exercer um efeito realista
sobre a maneira como nos sentimentos perante a nós mesmos, ao mundo e a nosso futuro (tríade
cognitiva). A forma como reconhecemos e julgamos os acontecimentos externos e internos a nós,
determinará o modo como iremos nos sentires e agir diante dos acontecimentos. Analisando e
relatando as emoções sentidas e ainda realizando uma conexão entre os sentimentos e
pensamentos, buscando o realismo dos pensamentos, confrontando os pensamentos negativos,
distorcidos e desagradáveis e assim substituindo pensamentos condizentes com a realidade.
O estresse abala todo o sistema do corpo humano desde psicológico a fisiológico. Trazendo
transtornos à pessoa afetada, de forma a deixá-las confusas, ainda mais quando se tem uma decisão
a tomar.
Alguns pesquisadores como Dra. Judith Beck, Aaron Beck e Dra. Marilda Lipp,
desenvolveram técnicas capazes de amenizar os sintomas e reações advindas do estresse.
Finalizando o que já foi amplamente discutido, pode-se dizer que a automação dentro
da cabine de comando possibilitou melhoras em diversos aspectos, como economia de
combustível, operações mais eficientes e a redução da carga de trabalho da tripulação ao
diminuir a quantidade de tarefas. Entretanto, há as consequências desses benefícios, como a
diminuição da habilidade para realizar voo manual, tal como, o aumento da carga de estresse
devido a esse gerenciamento de informações excessivas. Consequentemente, evoluindo para
um quadro posterior de fadiga aérea ao longo do tempo, dificultando a percepção cognitiva
dos pilotos na cabine de comando em meio a situações adversas e emergência, ou até mesmo,
agravando suas reações naturais nas tomadas de decisão e consciência situacional, culminando
ao quadro de "visão de túnel", onde em grandes casos de acidentes este conceito tem se
apresentado com frequência.
Dentre os outros fatores que podem trazer riscos à segurança aérea, e de acordo com
esta análise que foi apresentada, podemos compreender a importância de como a percepção
cognitiva de um ser humano está ligada à "atenção" e diretamente aos índices de
fadiga, assim como, altos níveis de cargas de estresse também se mostram presentes,
aumentando a probabilidade de erro humano em meio às situações adversas e de emergência,
desde que a capacidade humana de cometer erros está presente por natureza e não pode ser
excluída, apenas controlada por técnicas estabelecidas como barreiras mitigadoras, assim
como, podem ser gerenciados esses riscos e ameaças de cometer erros, através de programas
de gerenciamento, treinamentos, avaliações periódicas recomendadas e estimuladas pela
Organização Internacional de Aviação Civil (OACI/ICAO), agências reguladoras do
transporte aéreo e operadores aéreos.
Portanto, a conclusão, resume-se às consequências da automação na segurança de voo,
onde a: diminuição da consciência situacional das tripulações, a complexidade dos sistemas, a
falta de compreensão dos mesmos pelos pilotos, o comprometimento da capacidade de manter
voo manual e a produção de um ambiente de complacência, que por sua vez, podem ser
controlados e mitigados ao máximo tais índices de falhas e erros, se forem
estimulados e gerenciados de forma correta.
REFERÊNCIAS
DEGANI, A.; WIENER, E.L. On the Design of Flight-Deck Procedures. Moffett Field:
NASA Ames Research Center, 1994.
ICAO. Doc 9966, Manual for the Oversight of Fatigue Management Approaches.
Montreal, 2016.
IIDA, I. Ergonomia: projeto e produção. São Paulo: Edgard Blucher, 1990. 465
p.
LICATI, Paulo. A vez do FRMS. Revista Aero Magazine, Montreal, 17 out. 2011.
Segurança de Voo. Disponível em: < https://aeromagazine.uol.com.br/artigo/a-vez-do-
frms_71.html>. Acesso em: 25 maio. 2021.
REASON, J. Human error: models and management. British Medical Journal, n. 320,
p. 768-770, 2000.
REASON, J. Combating omission errors through task analysis and good reminders.
Qual. Saf. Health Care, n. 11, p. 40-44, 2002.
ROBBINS, S. P; JUDGE, T. A.; SOBRAL, F. Comportamento Organizacional –
Teoria e prática no contexto brasileiro.14º ed. São Paulo: Pearson Prentice Hall, 2010.
WIEGMANN, D.A., & SHAPPELL, S.A. (2003). A human error approach to aviation
accident analysis: The human factors analysis and classification system.
England: Ashgate Publishing Ltd, 2003.
PELLEGRINELLI, A.T.; FASSINA, A.W.; ROSA, A.M.; MAIA, F.P.C.; NICOLETTI, G.L.
Análise da Fadiga no Tripulante da Aviação Executiva. 2015. Disponível em: 49
https://www.aeronautas.org.br/wp-content/uploads/2015/08/An%C3%A1lise-da-Fadiga- no
Tripulante-da-Avia%C3%A7%C3%A3o-Executiva.pdf.
MÂNICA NETO, W.M. O impacto da fadiga na tripulação e sua relação com acidentes
aeronáuticos. 2019. Disponível em: https://riuni.unisul.br/bitstream/handle/12345/7721/TCC
%20VERSAO%20PDFA.pdf?se quen ce=1&isAllowed=y.
DUARTE, G.R.D. O impacto da fadiga para a segurança operacional do voo. 2017. Palhoça/ SC.
Disponível em:
https://riuni.unisul.br/bitstream/handle/12345/4408/GILENO_DANTAS_PDFA.pdf?sequ ence
=1&isAllowed=y.
ENGLERT, H. 2006. Sinais de alerta. Mente e Cérebro, v.7 p.12-17.
PRINCE, A. The effect of experience on the perception of decision scenarios: A field study.
University of South Florida, 1999. Dissertation Abstracts International, DAI-B 60/08, 1999.
(Tese de Doutorado).