Especialistas de várias localidades do Brasil apresentaram, na tarde desta quarta-feira (25/9), sugestões e preocupações para o uso da inteligência artificial (IA) no Poder Judiciário durante a audiência pública sobre o tema no Conselho Nacional de Justiça (CNJ). O evento é coordenado pelo presidente da Comissão de Tecnologia da Informação e Inovação do CNJ, conselheiro Bandeira de Mello, e segue até a sexta-feira (27/9) com painéis compostos por convidados e manifestações de representantes da sociedade e das comunidades jurídicas e acadêmicas habilitados.
As contribuições serão utilizadas na atualização a Resolução CNJ 332/2020. Esse ato normativo dispõe sobre a ética, a transparência e a governança na produção e no uso de IA nas instituições da Justiça brasileira. O conselheiro Bandeira de Mello afirmou que todas as colocações dos participantes serão analisadas pelo CNJ. “O principal dilema é o quanto de liberdade no uso da IA generativa será permitida aos servidores e magistrados do Judiciário. O ideal seria um modelo treinado específico para o Poder Judiciário”, ponderou.
Segundo ele, um dos problemas é que, no futuro, o número de textos gerados pela IA poderá ser bem maior do que os feitos por humanos, o que afetará a qualidade do conteúdo produzido pela inteligência artificial. Outro problema, na avaliação do conselheiro, é a possibilidade de o sistema, na segunda instância, acabar tendendo a manter a decisão do primeiro grau, com o objetivo de aumentar o índice de acerto de decisões produzidas pela IA.
Leia mais:
Em audiência pública, presidente do CNJ diz que IA é questão de sobrevivência
Inteligência Artificial no Judiciário: uso é pouco frequente, mas interesse pela ferramenta é elevado
Controle
Os debatedores apresentaram sugestões relacionadas a controles necessários para o uso adequado de IA pelos tribunais. O desembargador Claudio Dell Orto, presidente do Comitê Gestor de Inteligência Artificial do Tribunal de Justiça do Rio de Janeiro (TJRJ), sugeriu incluir na minuta a descontinuidade de solução de IA se houver a impossibilidade de eliminação de viés discriminatório.
O magistrado propôs também a criação do Relatório de Impacto à Proteção de Dados para mostrar as medidas tomadas pelos tribunais na proteção dos dados pessoais, assim como a proibição do compartilhamento dos dados fornecidos pelos usuários do Judiciário e daqueles inferidos a partir destes para fins de treinamento, aperfeiçoamento ou quaisquer outros fins não expressamente autorizados.
O advogado Alisson Alexsandro Possa, que auxilia a Frente Parlamentar do Setor de Serviços na área de IA, sugeriu a criação de um canal para denunciar problemas e erros no uso de inteligência artificial e evitar a proliferação de recursos para esse fim. “O uso de recursos para corrigir erros causados pela IA pode criar gargalos nas instâncias superiores”, apontou.
O professor de Direito Digital da Universidade de Fortaleza (CE) João Araújo Monteiro Neto defendeu a participação de mais entidades da sociedade civil e da Academia no Comitê de Inteligência Artificial do CNJ, previsto no artigo 8 da minuta.
O advogado Fernando Rodrigues Peres, da Associação Portuguesa de Direito Intelectual, sugeriu que seja incluída na minuta a monitoração contínua dos modelos de IA a fim de fortalecer a segurança jurídica.
Para a pesquisadora da Universidade Federal de Juiz de Fora (MG) Izabella Alves Jorge Bittencourt, é necessário que a minuta garanta de forma explícita ao usuário e às pessoas afetadas pelas decisões geradas pela IA o direito de explicações inteligíveis dos processos decisórios, com a garantia da revisão humana.
Por sua vez, a professora da USP Ana Carla Bliacheriene apresentou propostas para reduzir o erro e a chamada alucinação das ferramentas de IA, tais como a curadoria de dados, a adaptação com especialização de dados, validação por IA e humana, treinamento e adaptação recorrente, com intervenção humana.
Capacitação
Outro aspecto apontado na tarde desta quarta-feira foi a da capacitação da força de trabalho da Justiça para lidar com a IA. Essas medidas impactariam na qualidade das decisões judiciais desenvolvidas em alguma medida com apoio dessas ferramentas.
Representando o Instituto de Direito e Inteligência Artificial (IDEIA), o professor da UFMG Dierle José Coelho Nunes defendeu a criação da Política Nacional de Letramento Digital para o Judiciário para dar segurança e equidade ao uso da IA nesse poder. “Muitos problemas ocorrem devido ao baixo conhecimento da IA”, frisou.
Berto Igor Caballero Cuellar, pesquisador do Laboratório de Inteligência Artificial do IDP, defendeu classificar como de alto risco a produção de textos de apoio para facilitar a confecção de atos judiciais, desde que a supervisão e a versão final do documento sejam realizadas pelo magistrado, bem como as decisões acerca das preliminares e questões de mérito. Na minuta, essa solução é considerada de baixo risco.
A professora da Faculdade de Ensino Superior de Linhares (ES) Juliana Justo Botelho Castello apontou a importância da categorização dos riscos do uso da IA em dois parâmetros: algoritmo e interação de usuário com a máquina.
O professor do Centro Universitário do Distrito Federal (UDF) Paulo Campanha Santana ressaltou a importância de regulamentar o uso de ferramentas que utilizam a neurociência para identificar as emoções das pessoas. “Isso poderia auxiliar o magistrado em casos de situações de vulnerabilidade”, sustentou.
O diretor do Instituto de Ciências Matemáticas e de Computação da USP, André Carlos Ponce de Leon Ferreira de Carvalho, também reforçou a necessidade da regulamentação do uso da IA, porém ressaltou que não se pode impedir a evolução tecnológica, pois ela traz benefícios à população e gera empregos.
Assista à integra das apresentação de especialistas na tarde desta quarta-feira (25/9) sobre uso de IA pela Justiça:
Texto: Rafael Paixão
Edição: Sarah Barros
Agência CNJ de Notícias