Com 80 milhões de processos em tramitação todo ano, a Justiça brasileira busca na Inteligência Artificial (IA) uma maneira de ajudar a magistratura a julgar mais ações e de forma mais rápida. A qualidade dessas decisões, no entanto, foi o que motivou as palestras, na quarta-feira (14/10), de três juízes convidados do ExpoJud, evento virtual que discute inovação tecnológica no Judiciário.
Os magistrados defenderam soluções de IA para identificar vieses em decisões proferidas todos os dias e, assim, evitar a repetição de vereditos potencialmente contrários aos direitos humanos. Os possíveis significados da palavra “viés” podem gerar resistência em magistrados, mas são um fenômeno humano e o objeto de estudo da psicologia cognitiva, de acordo com o juiz auxiliar do Conselho Nacional de Justiça (CNJ), Rafael Leite.
Leia também:
Esse campo da ciência define um “viés cognitivo” como um atalho do cérebro humano que influencia o processo decisório de qualquer pessoa. Um deles é viés de confirmação, que é uma tendência do comportamento de as pessoas buscarem confirmar seu próprio entendimento da realidade. O termo viés, quando aplicado à inteligência artificial, causa ainda mais confusão.
O machine learning, mecanismo por trás de vários algoritmos e robôs utilizados em IA, depende de alimentação por seres humanos. As sentenças de juízes, por exemplo, são usadas para formar um padrão e “ensinar a máquina” a recomendar ao juiz a adoção da mesma sentença para casos reconhecidos como semelhantes.
O “reconhecimento” de um padrão depende dos indicadores informados previamente ao computador para “ensiná-lo” a analisar determinadas informações circunstanciais de cada caso. Por isso, Rafael Leite explica que é importante “alimentar” a máquina com sentenças paradigmáticas que não perpetuem preconceitos sociais, por exemplo.
Mas, além de agrupar sentenças similares em relação a casos parecidos, a IA pode apontar padrões decisórios nas sentenças de magistrados. “O resultado pode ser: magistrado X, quando julga em relação a pessoas que vem dessa região da cidade, decide 80% pior comparando a pessoas que vem dessa outra região. Essas pessoas aqui conseguem o valor, o benefício, uma decisão favorável; essas outras, não. Com relação às pessoas que têm sobrenome da Silva, o mesmo magistrado indefere a decisão. Em relação a pessoas que têm sobrenome alemão, o mesmo magistrado favorece”, explicou o juiz auxiliar.
Segundo Leite, esse conhecimento que pode ser gerado com soluções de inteligência artificial trará benefícios à qualidade da Justiça. “Isso dá uma base crítica para fazer análise objetiva e crítica do processo de decidir e dá indicações de como aprimorá-lo. Pela primeira vez, temos a capacidade de reconhecer e criticar os vieses, usando critérios objetivos e estatísticos.”
Transparência
Pesquisa em desenvolvimento pelo Centro de Inovação, Administração e Pesquisa do Judiciário (CIAPJ) da Fundação Getúlio Vargas (FGV) identificou 72 soluções de inteligência artificial em desenvolvimento, testes ou funcionamento no Poder Judiciário, desde a primeira instância até o STF. “O sistema Sócrates, do Superior Tribunal de Justiça (STJ), serve para selecionar processos similares em grupo grande de processos. No mundo todo, esses sistemas de IA têm auxiliado os juízes a decidirem, nunca estão decidindo sozinhos”, contou a juíza federal Caroline Tauk.
Ela afirmou que os vieses algorítmicos podem ser aprimorados desde a etapa de treinamento do algoritmo. “Primeiro: remover atributos sensíveis – raça, gênero – dos dados que treinam aquele algoritmo. Quando se tem uma pergunta no formulário de treinamento, mudar a forma como é feita aquela pergunta. Se, em princípio, os dados de treinamento estão livres de discriminação, espera-se que aquele modelo computacional aprendido também seja livre disso.”
Também é importante, de acordo com a magistrada, transparência em todo o processo. Por isso, o design dos sistemas de modelos computacionais tem de torná-los permeáveis a uma auditoria. “Não é porque se tem opacidade que não se pode ter a chamada accountability, a responsabilidade, a prestação de contas daquilo que está sendo feito.”
Carolina Tauk, que atua como juíza auxiliar do Supremo Tribunal Federal (STF), lembrou a necessidade da publicidade do uso de soluções automatizadas em ações judiciais. “Sempre que for utilizado um sistema de IA, todos devem saber que está sendo usado no seu processo e tudo deve ser feito por uma equipe multidisciplinar, com juristas e especialistas em tecnologia”, defendeu. “A supervisão humana é necessária e indispensável, de acordo com a Resolução CNJ nº 332, que trata da ética, transparência e governança na produção e no uso de inteligência artificial.”
Simplicidade
Já o juiz do Tribunal de Justiça de Santa Catarina (TJSC), Alexandre Morais da Rosa, mostrou um exemplo de IA em julgamentos, quando falou de um experimento de machine learning aplicada aos casos de guarda de filhos que julgou, anos atrás, em uma vara de infância e juventude. A máquina foi ensinada a decidir casos com “complexidade nula”. Se a petição inicial contivesse pedido de guarda, documentação pertinente, parecer do serviço social, parecer do Ministério Público, com a manifestação de acordo por todos os envolvidos, o resultado era pré-determinado.
“Se todo mundo está de acordo, qual a dificuldade? Sem IA, eu sou obrigado a alocar 15 minutos do meu dia que vão me tirar de casos importantes que necessitam de reflexão para decidir uma coisa que está dada. Busquei todos os indicadores, todos estão de acordo, portanto, não tem controvérsia. É nisso que estamos buscando fazer com que haja possibilidade de execução”, disse o magistrado, que também é professor da Universidade Federal de Santa Catarina (UFSC) e da Universidade do Vale do Itajaí (Univali).
Manuel Carlos Montenegro
Agência CNJ de Notícias
Ouça o boletim na Rádio CNJ