O erro judiciário à luz da Ciência da Segurança


O que o direito pode aprender com outras Ciências sobre a prevenção de erros

O erro é um fenômeno humano e está presente nas mais variadas atividades. Apesar de sua pervasividade, há setores nos quais o erro é mais pernicioso, considerada a dimensão dos impactos e dos danos que pode produzir.

Setores da indústria e da tecnologia têm sido mais atentos ao diagnóstico e à prevenção de erros, exatamente pelos custos econômicos e humanos de suas ocorrências. Basta que pensemos nos dados ambientais produzidos por um acidente nuclear ou por um vazamento de petróleo.

O Direito pode aprender muito com outras ciências, especialmente com áreas que lidam metodicamente com risco, com falhas humanas e a prevenção de desastres. A Safety Science[1] aplicada à Aviação é um exemplo paradigmático. Os cientistas da Aviação entenderam, desde a década de 1970, que a busca de culpados individuais era insuficiente para aumentar a segurança dos voos. Não se reduz acidente apontando o dedo para o responsável imediato, mas reconstruindo sistemas e readaptando técnicas de prevenção. A lógica daquele setor deslocou-se da responsabilização para o aprendizado.

O Direito, sobretudo o penal e o regulatório, ainda opera em chave individualizante, muitas vezes moralizante, que obscurece a complexidade real dos eventos danosos, ignorando o estudo das suas causas, que, muitas vezes decorrem da complexidade normativa (ou da obscuridade das normas), das deficiências de treinamento e também dos equívocos no tratamento da prova.

A Safety Science trabalha com modelos sistêmicos, como o “queijo suíço” de James Reason. Professor de Psicologia na Universidade de Manchester, Reason mostrou que erros raramente decorrem de atos isolados. A partir disso, desenvolveu uma teoria sobre o erro humano.[2]  A abordagem de Reason incentiva a criação de uma cultura de segurança que aprende com os erros para fortalecer o sistema como um todo, não apenas punir indivíduos. Sua visão serve, entre outras coisas, para ampliar as condições para evitar acidentes-crimes ambientais (como o de Bhopal) e graves falhas em usinas nucleares (como as de Three Mile Island e Chernobyl), prevenir acidentes aerospaciais (como o da Challenger) e para melhorar a segurança de pacientes tratados em instituições hospitalares.

A Teoria das Falhas Ativas e Latentes foi proposta por James Reason em seu livro, Erro Humano. De acordo com Reason, os acidentes na maioria dos sistemas complexos, como os da área da saúde, são causados ​​por uma falha ou ausência de barreiras de segurança em quatro níveis dentro de um sistema sociotécnico. Esses níveis podem ser mais bem descritos como Atos Inseguros, Pré-condições para Atos Inseguros, Fatores de Supervisão e Influências Organizacionais. Reason usou o termo “falhas ativas” para descrever os fatores no nível dos Atos Inseguros, enquanto o termo “falhas latentes” foi usado para descrever as condições inseguras localizadas em níveis mais altos do sistema.[3]

A menção a esses casos mostra os “terríveis custos humanos do erro”[4]. Os erros surgem de alinhamentos entre falhas latentes, decisões organizacionais, problemas de comunicação, fadiga, treinamento inadequado, pressão por produtividade e culturas institucionais frágeis.  

Segundo Reason, pode-se fazer uma diferenciação entre “error” e “mistake”. Na minha visão, tal distinção pode ser útil ao direito probatório. Para ele, “error”:

(…) will be taken as a generic term to encompass all those occasions in which a planned sequence of mental or physical activities fails to achieve its intended outcome, and when these failures cannot be attributed to the intervention of some chance agency.

Já os “mistakes” podem ser definidos “as deficiencies or failures in the judgemental and/or inferential processes involved in the selection of an objective or in the specification of the means to achieve it, irrespective of whether or not the actions directed by this decision-scheme run according to plan”.[5]

O Direito pode incorporar esse olhar mais estrutural. Isso não significa abolir responsabilidades individuais, mas compreender que a prevenção de erros judiciários depende de identificar vulnerabilidades de sistema. No campo penal, econômico, regulatório, ambiental e digital, nos quais os danos são produzidos por organizações, cadeias complexas e algoritmos, esse paradigma sistêmico é fundamental, para a boa operação da sociedade, das corporações e do Estado.

Segundo Fernando Braga Damasceno,

Não se quer aqui desprestigiar o trabalho voltado à demonstração de erros/falhas do Sistema — eles são simplesmente imprescindíveis — o que se quer dizer aqui é que a esse sistema de revisão de erros deve ser seguido de um trabalho voltado ao aprendizado e à evolução, o qual, por sua vez, reivindicaria uma abordagem amigável do erro; o que, segundo já firmado pela chamada “Ciência da segurança” ou “Ciência da prevenção” (Safety Science), é indispensável para aproveitar o seu lado positivo. Afinal, como defendem aqueles/as que se dedicam ao estudo da prevenção de erros, deve-se partir da ideia de que estes não são consequências, mas causas; de que eles têm uma história, o que faz com que a descoberta do erro não seja vista como um fim, mas apenas o começo. Somente compreendendo as circunstâncias de um erro é que uma organização pode considerar prevenir sua recorrência.[6]

Nossa imersão na sociedade do risco torna ainda mais importante a tônica prevencionista,[7] com vistas a um diagnóstico da falha ou do erro. A grande massa de processos em mãos dos juízes é outro fator que aumenta a importância desse raio-X sistêmico, com vistas à redução dos incidentes que podem levar a “acidentes” judiciários.

Outra lição vinda da Safety Science é a cultura de relatar sem medo. Pilotos e equipes são incentivados a reportar erros e quase-acidentes (incidentes), porque a informação fortalece o sistema. No Direito, a cultura do medo (medo de responsabilização, medo de sanções disciplinares, medo de exposição) inibe o aprendizado. Mecanismos como whistleblowing, acordos de mitigação de sanções e programas de leniência dialogam diretamente com essa lógica, propiciando a coleta de informações para prevenir danos, sem preocupação imediata de punição.

Isso não significa, porém, que o dever de reparação pelo erro judiciário possa ser negligenciado, uma vez que se trata de um direito fundamental, previsto no art. 5º da Constituição.

A Ciência da Segurança também ensina que falhas humanas são inevitáveis, mas falhas organizacionais são evitáveis. O sistema judicial, ao contrário, por vezes ainda espera um comportamento ideal, quase infalível, de indivíduos e instituições. Incorporar a ideia de que o erro é elemento inerente a qualquer atividade humana permite projetar normas mais realistas, procedimentos de abordagem mais adequados e modelos sancionatórios mais proporcionais, sem descurar da reparação do dano, tendo, neste aspecto, o olhar mais na pessoa que o suportou, e menos na pessoa que o causou.

Por fim, a Safety Science mostra que prevenção exige interdisciplinaridade continuam mediante os conhecimentos da engenharia, da psicologia cognitiva, da estatística, da gestão de riscos e da comunicação. O Direito, frequentemente visto como autossuficiente, precisa abrir suas fronteiras. Problemas complexos, a exemplo de desastres ambientais, fraudes sistêmicas, crimes cibernéticos, não se resolvem com dogmática jurídica.

Precisamos de métodos empíricos, análise de dados e diálogo constante com outras ciências, especialmente as que mais avançaram no exame do comportamento humano e das falhas dos sistemas complexos. A Aviação reduziu acidentes porque abandonou o mito do aviador infalível. O Direito poderia alcançar mais justiça se fizesse o mesmo em relação aos seus juízes e outros operadores desse sistema complexo.

Para além da tolerância ao erro derivada da introdução dos standards probatórios, o Ministério Público poderia contribuir, cientificamente, por meios de suas escolas institucionais, para o estudo do erro no sistema de justiça brasileiro, estudando as várias causas pelas quais erramos ao condenar inocentes e erramos ao absolver culpados.


[1] Segundo Dekker, a Safety Science é uma ciência multidisciplinar, um campo que busca compreender como sistemas sociotécnicos realmente funcionam e por que, inevitavelmente, às vezes falham. Sua contribuição desloca o foco da culpabilização individual para a aprendizagem organizacional e da segurança como estado estático para a segurança como processo vivo e adaptativo. DEKKER, Sidney. Foundations of safety science: a century of understanding accidents and disasters. Boca Raton: Taylor & Francis Group, CRC Press, 2019.

[2] REASON, J. T. Human error. Cambridge [England] ; New York: Cambridge University Press, 1990.

[3] WIEGMANN, Douglas A.; WOOD, Laura J.; COHEN, Tara N.; et al. Understanding the “Swiss Cheese Model” and Its Application to Patient Safety. Journal of patient safety, v. 18, n. 2, p. 119–123, 2022.

[4] REASON, op. cit., p. 17.

[5] REASON, op. cit., p. 28.

[6] BRAGA DASMASCENO, Fernando. Pensando a qualidade do juízo fático-probatório: um modelo de evolução baseado no aprendizado com erros. Rev. Bras. de Direito Processual Penal, Porto Alegre, v. 9, n. 3, p. 1213-1256, set.-dez. 2023.

[7] Para Dekker, “Safety science is the interdisciplinary study of accidents and accident prevention. It contains theories inspired by engineering, physical sciences, epidemiology, sociology, psychology, anthropology, and more.” DEKKER, Sidney. Foundations of safety science: a century of understanding accidents and disasters. Boca Raton: Taylor & Francis Group, CRC Press, 2019, p. 1.

Deixe um comentário