Sistemas de IA devem receber conhecimento legal para não cometerem erros

Debate no IASP sobre como regular decisões assistidas por IA reuniu profissionais do Direito e de Ciência de Dados

Que tipo de confiança o indivíduo que usa Inteligência Artificial tem sobre o sistema? Que tipo de relação podemos ter entre o modelo de IA e a parte interessada? Podemos garantir que vamos ter acesso à ferramenta quando precisamos dela?

Esses foram alguns dos questionamentos trazidos por Umang Bhatt, professor de Data Science e Computer Science da New York University e membro do Alan Turing Institute, em debate sediado pelo IASP na quinta-feira (14/12). O encontro Regulamentação das Decisões Assistidas pela Inteligência Artificial, híbrido e em inglês, foi mediado pelo presidente da Comissão de Inteligência Artificial do IASP, Juliano Maranhão.

“Quando os algoritmos devem renunciar?”, também questionou Bhatt. A renúncia algorítmica é o desligamento deliberado e informado da assistência de IA em determinados cenários. Para Bhatt, do ponto de vista de um cientista de computação, a renúncia algorítmica traz benefícios como a eficiência econômica, o ganho reputacional e a conformidade legal.

O professor pontuou que a renúncia algorítmica permite um novo mecanismo para regulação dentro das organizações; orquestra a colaboração homem-máquina para melhorar resultados e processos; e justifica uma interpretação inteligente de regulamentações como o “processamento automatizado” do LGPD, uma vez que a IA agora pode ser invocada seletivamente.

Juliano Maranhão afirmou que “o ponto chave é a transparência, porque é a partir de suas instruções, da informação que os agentes têm sobre o funcionamento dos sistemas e sobre o momento para a renúncia que você encontra a chave para a atribuição de responsabilidade. A transparência depende de quem é o objeto dessa informação”. Sendo assim, o presidente da comissão pontuou quais seriam os elementos-chave para toda decisão sobre renúncia:

  • Para que o sistema é desenhado?
  • Qual é o interlocutor do sistema e que tipo de informação ele deve ter?
  • Qual a gravidade do risco envolvido?

Ser humano continua crucial

Maria Carolina Nery, doutoranda e mestre em Direito Civil pela Pontifícia Universidade Católica de São Paulo, mencionou  no debate o Athos, sistema de inteligência artificial que seleciona e agrupa processos semelhantes entre si e os envia para a presidência do Superior Tribunal de Justiça para que eles possam ser objeto de Temas Repetitivos.

No entanto, na prática, há ainda dúvidas sobre seu funcionamento e sobre meios para regular o sistema. Umang afirmou que, apesar de ser um sistema inovador e potencialmente favorável para a redução do volume de processos, não tem certeza se esse é o melhor uso para a IA. Da mesma forma, Juliano pontuou que a similaridade dos casos é identificada sem levar em consideração conhecimentos legais, o que evidencia que o ser humano continua sendo crucial nas decisões judiciais.

Renata Wassermann, professora associada do Departamento de Ciência da Computação do Instituto de Matemática e Estatística da Universidade de São Paulo, constatou, por fim, que “é preciso colocar conhecimento legal dentro do sistema para que ele não cometa erros recorrentes tentando identificar semelhanças nos processos”.

Post anterior
Inconstitucionalidade da Lei de Custas e Conselheiros que deixam o colegiado
Próximo post
IASP aguarda estudo sobre lei paulista que instituiu taxa inédita no Estado
expand_less