Quando o equipamento mata: a indústria prefere culpar o mergulhador
Acidentes não são exceção. São sintomas de sistemas mal compreendidos — e convenientemente protegidos.
Durante décadas, a narrativa predominante no mergulho técnico e profissional tem sido simples, confortável e recorrente:
“erro humano”.
Sempre que um acidente grave ocorre — especialmente envolvendo sistemas complexos como rebreathers — a explicação surge rapidamente, quase automática. O mergulhador falhou. Interpretou mal um procedimento. Ignorou um alarme. Quebrou um protocolo.
Essa narrativa encerra o debate antes que ele comece.
E é exatamente por isso que ela é perigosa.
Michael Menduno alertava: quando uma indústria aprende a explicar acidentes sem investigá-los profundamente, ela deixa de aprender — e passa a repetir falhas.
Erro humano: diagnóstico ou cortina de fumaça?
Nenhuma operação subaquática é isenta de falhas humanas. Isso é um fato fisiológico e cognitivo.
O problema começa quando o “erro humano” deixa de ser ponto de partida da análise e passa a ser ponto final.
Em inúmeros relatórios informais, comunicados de fabricantes e discussões pós-acidente, observa-se um padrão preocupante:
ausência de auditoria independente,
inexistência de dados públicos completos,
silêncio institucional,
e rápida absolvição do sistema técnico envolvido.
A pergunta que raramente é feita é a mais incômoda:
e se o erro humano for consequência, e não causa primária?
Acidentes como eventos multicausais — e previsíveis
Todo acidente grave no mergulho envolve uma cadeia de fatores:
projeto do equipamento,
interface homem–máquina,
treinamento recebido,
pressão psicológica,
e decisões tomadas sob estresse.
Reduzir esse conjunto complexo a uma falha individual não é apenas intelectualmente desonesto — é operacionalmente irresponsável.
Na aviação, na indústria offshore e em operações nucleares, acidentes são tratados como falhas de sistema.
No mergulho, ainda insistimos em tratá-los como falhas morais individuais.
Essa diferença custa vidas.
Quando o projeto falha — mas o silêncio protege
Sistemas de mergulho avançados, especialmente CCRs, são tecnologicamente sofisticados, porém:
operam com margens fisiológicas mínimas,
exigem decisões rápidas sob carga cognitiva elevada,
dependem de sensores falíveis,
e interfaces que nem sempre priorizam o operador.
Em qualquer outro setor crítico, essas características acionariam:
revisões de design,
alertas públicos,
reengenharia.
No mergulho, frequentemente acionam o silêncio.
Fabricantes raramente divulgam:
estatísticas consolidadas de falhas,
relatórios técnicos completos de acidentes,
taxas reais de incidentes por horas de uso.
Quando há atualizações de firmware, mudanças de sensores ou revisões de hardware, elas surgem como “evolução”, não como correção de falha.
O mergulhador que morreu não está mais aqui para contestar.
A transferência de risco como modelo de negócio
A indústria aprendeu a redistribuir risco sem assumi-lo.
O discurso é conhecido:
o equipamento é seguro,
o treinamento é suficiente,
o manual é claro.
Logo, se algo deu errado, a responsabilidade recai sobre o usuário.
Essa lógica ignora um princípio básico da engenharia de sistemas críticos:
quanto mais complexo o sistema, maior a obrigação do projeto em proteger o operador.
Alarmes em cascata, menus confusos, dependência excessiva de automação e procedimentos longos demais para situações de estresse não são falhas do mergulhador — são falhas de concepção.
A cultura do silêncio e a ausência de memória coletiva
Um dos maiores problemas estruturais do mergulho é a inexistência de um banco público, independente e padronizado de incidentes e acidentes.
Cada fatalidade é tratada como caso isolado. Cada discussão se perde em fóruns. Cada lição aprendida morre com o grupo que a viveu.
Michael Menduno defendia exatamente o oposto:
expor dados, discutir falhas e incomodar interesses.
Sem memória coletiva, o mergulho repete erros.
Sem transparência, a indústria evolui lentamente — quando evolui.
Culpar o mergulhador é confortável. Corrigir o sistema é caro.
Há uma razão pragmática para a persistência dessa narrativa:
rever projetos custa dinheiro,
admitir falhas gera responsabilidade,
transparência ameaça marcas.
Mas segurança operacional nunca foi barata.
O que é caro, de fato, é fingir que o problema não existe.
Cada vez que um acidente é encerrado com a frase “erro humano”, uma oportunidade de correção sistêmica é desperdiçada.
Conclusão: acidentes não são exceção — são alertas
Acidentes no mergulho técnico e profissional não são eventos anômalos.
São sintomas previsíveis de sistemas mal compreendidos, mal projetados ou mal discutidos.
Tratar o mergulhador como elo fraco é uma escolha narrativa — não uma verdade técnica.
Michael Menduno nos ensinou que a segurança nasce do desconforto intelectual.
De questionar fabricantes, treinamentos, práticas consolidadas e verdades convenientes.
Enquanto o mergulho não adotar uma cultura real de análise sistêmica, continuaremos enterrando operadores experientes e chamando isso de fatalidade.
E fatalidades, quando previsíveis, têm outro nome:

Comentários
Postar um comentário