A interseção entre a inteligência artificial (IA) e o sistema judiciário apresenta desafios éticos e legais significativos[1]. A amoralidade da IA refere-se à sua falta intrínseca de valores morais, éticos ou consciência, uma vez que as máquinas não têm experiências subjetivas nem capacidade de tomar decisões com base em um sistema moral interno.

A recente notícia de decisão proferida por juiz do TRF 1ª Região por meio de IA[2], ao que consta em desapego à realidade do caso julgado, materializa essa preocupação.

Muitos modelos de IA, especialmente os de aprendizado profundo, são ‘caixas-pretas’, o que significa que é difícil entender como eles chegam a determinadas conclusões. Nessas condições haveria um problema intransponível no que se refere à transparência e racional da decisão proferida, no que concerne à própria fundamentação e como consequência, a (in)capacidade de impugnar tais decisões judiciais, para além da inconstitucionalidade do vício formal inerente ao defeito de fundamentação.

Nesse sentido, o autor Antonio do Passo Cabral, traz observação relevante, quanto aos termos dessa transparência: “É imperativo, portanto, exigir transparência e publicidade dos algoritmos. Porém, como lembram Ferrari, Becker e Wolkart, não basta a transparência na publicação do código-fonte. A revelação do algoritmo só informa o método de aprendizado, mas não a regra de decisão, porque esta é extraída à luz dos dados coletados. Além da acessibilidade a todos, deve-se também garantir às partes a compreensibilidade do algoritmo, especialmente naqueles que usam ‘machine learning’”[3].

Infelizmente, nos parece, caminhamos a passos curtos em direção dessa necessária realidade.

Ainda, algoritmos de IA podem herdar preconceitos[4] existentes nos dados dos quais foram treinados. Se o sistema de IA for usado no contexto judiciário, pode resultar em decisões discriminatórias ou injustas, afetando grupos específicos de maneiras desproporcionais.

Mas esta lista de questões tormentosas não para por aí. Há também a preocupação incessante com a privacidade e uso de dados, uma vez que o treinamento de modelos de IA requer uso exauriente de dados, de todas as naturezas, o que pode levantar preocupações sobre a privacidade das informações pessoais e a segurança desses dados. Isso é especialmente relevante no contexto judicial, onde a proteção das informações confidenciais é crítica.

No entanto, talvez, a ‘cereja do bolo’, de fato, esteja relegada à programação ética, como um desafio crucial, talvez o maior deles, na construção de sistemas de IA. Desenvolver algoritmos e modelos que respeitem princípios éticos e valores humanos, é fundamental para evitar riscos judiciários associados à amoralidade da IA.

Não se tem dúvida de que para enfrentar esses desafios, muitos especialistas e organizações já estejam trabalhando no desenvolvimento de diretrizes éticas, padrões e regulamentações para orientar o uso responsável da IA no sistema judiciário e em outros setores. A discussão contínua sobre a ética da IA é vital para garantir que essa tecnologia seja usada de maneira justa e equitativa pelo poder judiciário, sobremaneira se assim o pretende na prolação de decisões judiciais.

Nós da Carvalho Nishida seguimos atentos a debates como esses que já tocam no dia a dia de nossos clientes, na incessante preocupação e atenção em coibir abusos como o que houve na sentença proferida no exemplo suscitado, já que, no momento presente, todos nós já podemos ser alvos de situações como essas, e que precisam ser veementemente combatidas.

___________________

[1] Os riscos éticos da IA (unesco.org)

[2] Juiz usa Inteligência Artificial em sentença e comete erro grave (uol.com.br)

[3] In Processo e Tecnologia: Novas tendências. Revista do Ministério Público do Estado do Rio de Janeiro nº 85, jul./set. 2022, pag. 24;

[4] É assim que o preconceito da Inteligência Artificial (IA) realmente acontece – e por que é tão difícil de consertar – MIT Technology Review (mittechreview.com.br)