
Em 6 de outubro, o Parlamento da União Europeia adotou uma resolução a respeito do uso de inteligência artificial na segurança pública e na Justiça Criminal. O texto foi aprovado por 377 votos a favor e 248 contra, com 62 abstenções.
Em outubro de 2020, o Parlamento Europeu já havia adotado a Resolução sobre o Regime de responsabilidade civil aplicável à inteligência artificial, P9_TA(2020)0276. A Casa Branca também está se preparando para a regulamentação do que vem sendo chamado de AI Bill of Rights, uma declaração dos direitos individuais para a era da inteligência artificial.
Os principiais pontos da Resolução 405, de 6 de outubro de 2021 (P9_TA(2021)0405) do Parlamento Europeu sobre “A inteligência artificial no direito penal e a sua utilização pelas autoridades policiais e judiciárias em casos penais” (Artificial intelligence in criminal law and its use by the police and judicial authorities in criminal matters) são:
- A necessidade de supervisão humana sobre sistemas de IA;
- Os algoritmos utilizados na segurança pública devem ser de código aberto (open source);
- Sistemas e bases de dados privados de reconhecimento facial, como o Clearview AI, de devem ser proibidos;
- Também deve ser proibido o policiamento comportamental preditivo;
- Não se deve adotar na UE o sistema de pontuação para cidadãos (citizen scoring);
- Certos sistemas de reconhecimento humano automático não devem ser usados no controle migratório nem em espaços públicos, salvo para identificação de suspeitos de crimes.
Essas recomendações têm em mira evitar violações à privacidade e a outras liberdades fundamentais e prevenir a discriminação nas atividades de segurança pública e de Justiça Criminal. Importante ressaltar que levam em conta o estado atual das tecnologias baseadas em IA e destinadas ao policiamento preditivo.
Segundo o considerando “M”, da Resolução (2021)0405, as autoridades policiais têm empregado IA em softwares de reconhecimento facial, úteis para procurar e localizar suspeitos em bases de dados e identificar vítimas de tráfico de seres humanos ou de exploração sexual e abuso de menores. As IAs também são úteis para o reconhecimento automático de placas de veículos, a identificação de pessoas pela voz, o reconhecimento da fala, a leitura labial, a detecção de disparos, estampidos e explosões, a investigação e a análise autônomas de bases de dados identificadas e o policiamento preditivo. Tais ferramentas também podem servir à detecção de comportamentos humanos suspeitos, para a realização de autópsias virtuais, para ajudar a determinar a causa mortis de pessoas, além de serem empregadas para encontrar e analisar fraudes financeiras e práticas usuais de financiamento do terrorismo. Ou seja, são inúmeras as utilidades, tendo em vista o bem comum.
Outros usos das IA no campo da segurança pública e defesa civil estão no monitoramento de redes sociais, que também podem ser utilizadas para fins criminosos, e nos sistemas de vigilância automatizada para a detecção de batimentos cardíacos e nas câmeras térmicas, ou ainda, o que pode ser muito intrusivo, para a avaliação de estados mentais de suspeitos e testemunhas.
Nas atividades dos órgãos da Justiça Criminal, os usos são também significativos, como se lê no considerando “N” da Resolução. As IAs podem ser empregadas para fundamentar decisões sobre medidas cautelares, veredictos e individualização de penas, como também para o cálculo das probabilidades de reincidência e a determinação do preenchimento de condições para a livramento condicional e a progressão de regime. Podem também ser usadas na gestão de jurisprudência e para a ampliação do acesso à justiça.
Naturalmente, essas aplicações “podem ter graus de fiabilidade e precisão muito variados e um impacto na proteção dos direitos fundamentais e na dinâmica dos sistemas de justiça criminal”, conforme o texto do documento adotado pelo Parlamento da União Europeia, que tem sede em Estrasburgo.
Para o eurodeputado Petar Vitanov, da Bulgária, “Os direitos fundamentais são incondicionais. Pela primeira vez, estamos pedindo uma moratória sobre a implantação de sistemas de reconhecimento facial para fins de aplicação da lei, uma vez que a tecnologia se mostrou ineficaz e muitas vezes leva a resultados discriminatórios. Opomo-nos claramente ao policiamento preditivo baseado no uso de IA, bem como a qualquer processamento de dados biométricos que leve à vigilância em massa. Esta é uma grande vitória para todos os cidadãos europeus. ”
Neste sentido, o item n. 2 da Resolução (2021)0405:
2. Reafirma que todas as soluções policiais e judiciais baseadas na inteligência artificial devem também ser utilizadas no pleno respeito pela dignidade humana, pelos princípios da não discriminação, da liberdade de circulação, da presunção de inocência e do direito de defesa, incluindo o direito ao silêncio, a liberdade de expressão e o livre acesso à informação, a liberdade de reunião e a liberdade de associação, a igualdade perante a lei, o princípio da igualdade das partes e o direito a um recurso efetivo e a um julgamento justo, em conformidade com a Carta e a Convenção Europeia dos Direitos do Homem; salienta que deve ser proibida toda e qualquer utilização de IA que seja incompatível com os direitos fundamentais;
Quanto à vigilância em massa dos cidadãos (mass surveillance), a Resolução do Parlamento Europeu:
6. Sublinha que qualquer tecnologia pode ser desviada dos seus propósitos, pelo que se impõe um controlo democrático rigoroso e uma supervisão independente de qualquer tecnologia que seja utilizada pelas autoridades policiais e judiciais, especialmente as que possam ser desviadas para a vigilância ou a elaboração de perfis em larga escala; observa, por conseguinte, com grande preocupação, o potencial de determinadas tecnologias de IA utilizadas pelas autoridades policiais para efeitos de vigilância em larga escala; destaca o requisito legal de impedir a vigilância em larga escala através de tecnologias de IA, que, por definição, não é consentânea com os princípios da necessidade e da proporcionalidade, e de proibir a utilização de aplicações que possam resultar na vigilância em larga escala;
Na resolução em tela, os eurodeputados também afirmaram ser essencial para eficácia do exercício dos direitos de defesa e para a transparência dos sistemas nacionais de justiça penal, a existência de um marco normativo específico, claro e preciso que estabeleça “as condições, modalidades e consequências da utilização de instrumentos de IA” na segurança pública e no processo penal.
O texto também ressalta o direito das partes no processo penal de terem acesso ao processo de coleta de dados e às avaliações obtidas por meio do emprego de aplicações de IA, além de sublinhar a necessidade de as autoridades de cooperação internacional, ao cumprirem um pedido de extradição ou de entrega para outro Estado Membro da UE ou país terceiro, “avaliarem se a utilização de instrumentos de IA no Estado requerente pode comprometer manifestamente o direito fundamental a um julgamento justo”.
Pede ainda a Resolução sobre IA no processo penal que os Estados Membros, em conformidade com suas leis, garantam o direito à informação às pessoas quanto à utilização de aplicações de IA pelas autoridades policiais ou judiciárias.
O item 16 da Resolução é um dos mais significativos, pois exorta os Estados Membros da UE a garantir que toda e qualquer decisão judicial ou similar “seja sempre tomada por um ser humano, que deverá estar sujeito a um regime de responsabilização. Ademais, deve-se assegurar que todas as pessoas sujeitas a sistemas alimentados por IA possam recorrer para modificar as medidas impostas ou corrigir informes. Um ponto-chave é a previsão no direito da UE de que toda pessoa “tem o direito de não ser objeto de uma decisão que produza efeitos jurídicos que lhe digam respeito ou que a afete de forma significativa, caso se baseie exclusivamente no tratamento automatizado de dados”. Disso resulta que deve ser preservado o “poder discricionário soberano dos juízes e a tomada de decisões numa base casuística”, conclamando-se “à proibição do uso de IA e das tecnologias relacionadas para propor decisões judiciais”. Tratei da IA e do direito de ser julgado por juízes humanos em texto publicado no livro “Inteligência Artificial aplicada ao processo de tomada de decisões”.

Para reduzir os riscos inerentes ao emprego das tecnologias baseadas em IA, a Resolução (2021)0405 do Parlamento Europeu solicita aos Estados Membros da União que tornem obrigatória a avaliação de impacto sobre os direitos fundamentais “antes da aplicação ou implantação de qualquer sistema de IA destinado às autoridades policiais ou judiciais, a fim de avaliar potenciais riscos para os direitos fundamentais”. De acordo com o GDPR, de 2016, a avaliação prévia do impacto na proteção de dados pessoais já é obrigatória nos tratamentos em geral e, em especial, naqueles que utilizam novas tecnologias e que podem gerar grande risco para os direitos e liberdades das pessoas físicas. Para os eurodeputados, este é o caso de todas as tecnologias de IA para fins policiais e judiciais.
Quanto aos sistemas de reconhecimento facial, a Resolução adverte os Estados da União Europeia que “a implantação de sistemas de reconhecimento facial pelas autoridades policiais deve ser limitada a fins claramente justificados, no pleno respeito dos princípios da proporcionalidade e da necessidade, bem como da lei aplicável”. Para seu emprego, tais sistemas de reconhecimento devem “cumprir os requisitos de minimização dos dados, exatidão dos dados, limitação do armazenamento, segurança dos dados e responsabilização, devendo também ser lícita, equitativa e transparente e prosseguir uma finalidade específica, explícita e legítima que seja claramente identificada no direito da União ou dos Estados-Membros”.
Embora tendo em conta a utilidade de tais sistemas, como no policiamento e no controle migratório, a Resolução (2021)0405 alerta que “os sistemas de verificação e autenticação só podem continuar a ser implantados e utilizados com êxito se os seus efeitos adversos puderem ser atenuados” e se os critérios antes referidos forem cumpridos.
Tendo em vista o estado atual das tecnologias de IA, os eurodeputados pretendem “uma moratória à implantação de sistemas de reconhecimento facial para fins de aplicação da lei destinados à identificação, a menos que sejam estritamente utilizados para efeitos de identificação de vítimas de crime”. Essa moratória deve durar “até que as normas técnicas possam ser consideradas plenamente conformes com os direitos fundamentais, os resultados obtidos não sejam tendenciosos e discriminatórios, o quadro jurídico preveja salvaguardas rigorosas contra a utilização indevida e um controlo e supervisão democráticos rigorosos, e existam provas empíricas da necessidade e proporcionalidade da implantação de tais tecnologias”.
Quanto ao reconhecimento facial no contexto probatório, os deputados do Parlamento Europeu exortaram a Comissão a não ampliar o alcance da Decisão Prüm (2008) – relativa ao aprofundamento da cooperação transfronteiriça, em especial para a luta contra o terrorismo e a criminalidade transfronteiriça – “a menos que existam provas científicas sólidas da fiabilidade do reconhecimento facial num contexto forense comparável com o DNA ou as impressões digitais, depois de ter realizado uma avaliação de impacto completa”.
Aqui é preciso abrir parênteses para explicar o sistema Prüm, cujo objetivo, segundo explica Sara Matos, é “garantir o acesso mútuo dos países às bases de dados forenses nacionais de perfis genéticos, tal como de impressões digitais e de registos de veículos através de um sistema de correspondências”. Para Matos, “o sistema Prüm surgiu como uma das soluções encontradas pelos países da União Europeia para lidar com as crescentes ameaças à segurança pública”. Foi adotado pelas Decisões 2008/615/JAI e 2008/616/JAI, do Conselho da União Europeia, de 23 de junho de 2008, que obrigaram os Estados-Membros a aperfeiçoar os mecanismos de compartilhamento de bases de dados forenses de perfis de DNA de caráter policial e judicial no Espaço Schengen.
Tendo em conta tais fatores e os problemas quanto aos sistemas atuais de reconhecimento facial, os eurodeputados pretendem ainda que os países da UE evitem a adoção de “análises automatizadas e/ou do reconhecimento em espaços acessíveis ao público de outras características humanas, tais como o andar, as impressões digitais, o DNA, a voz e outros sinais biométricos e comportamentais“.
Considerando que a resolução não é vinculante, ao final, o Parlamento Europeu instou a Comissão Europeia “a ponderar a necessidade de uma ação legislativa específica para definir melhor os critérios e as condições para o desenvolvimento, a utilização e a implantação de aplicações e soluções de IA por parte das autoridades policiais e judiciais”.
Evidentemente, esses usos são necessários e devem ocorrer para proteger os cidadãos europeus das ameaças inerentes ao crime organizado, à cibercriminalidade, à lavagem de dinheiro e ao terrorismo, mas desde que observado um regime jurídico adequado para a proteção dos dados pessoais e, mais que tudo, das liberdades públicas contra eventuais abusos do Estado ou de agentes privados.
Este, aliás, é o grande dilema, que aparece no considerando “H” da Resolução 405, de 2021, do Parlamento Europeu: como conciliar as utilidades dessas novas tecnologias para a segurança pública e a Justiça Criminal com a necessidade de proteção dos direitos fundamentais contra os riscos de seu emprego abusivo. Diz o texto:
H. Considerando que as aplicações de IA podem criar grandes oportunidades no domínio da execução da lei, em particular na melhoria dos métodos de trabalho das autoridades policiais e judiciais, assim como no combate mais eficiente a certos tipos de crime, designadamente a criminalidade financeira, o branqueamento de capitais e o financiamento do terrorismo, o abuso sexual em linha e a exploração de crianças, bem como certos tipos de cibercrime, contribuindo, assim, para a segurança e a proteção dos cidadãos da UE, ao mesmo tempo que podem implicar riscos significativos para os direitos fundamentais das pessoas; considerando que um recurso generalizado à IA para efeitos de vigilância em larga escala seria desproporcionado;
O Brasil ainda está engatinhando nos temas em questão. O uso de IAs na segurança pública e no processo penal ainda é limitado, e, diante de nós, há os grandes desafios da criminalidade violenta, da delinquência organizada e da lavagem de dinheiro. Por outro lado, apesar da Lei 13.709/2018 (LGPD), o regime jurídico de proteção de dados pessoais ainda não está completo e o já vigente ainda não amadureceu. É hora, portanto, de avançar no marco normativo brasileiro e na estruturação de suas agências, para que não fiquemos à mercê de soluções casuísticas, e a segurança pública e importantes aspectos da persecução criminal não sofram prejuízos nem sirvam a abusos, seja por excesso de regulamentação, seja pela falta dela.