Notícias

ESMPU discute dilemas éticos do uso da IA na avaliação de risco em violência doméstica

Webinário realizado nesta quinta-feira (19) está disponível no canal da instituição no YouTube. Palestra de abertura contou com a participação do professor da UFRGS Edson Prestes
publicado: 19/03/2026 19h27 última modificação: 19/03/2026 19h29
Foto: Divulgação/ESMPU

Foto: Divulgação/ESMPU

Quais os principais riscos éticos no uso da inteligência artificial (IA) em casos de violência doméstica e familiar? Para responder a essa e outras questões sobre a temática, a Escola Superior do Ministério Público da União (ESMPU) promoveu, nesta quinta-feira (19), o webinário “Dilemas éticos do uso da inteligência artificial na avaliação de risco para violência doméstica e familiar contra a mulher’’. Assista no canal da instituição no YouTube.

Projeto de pesquisa – Sob orientação pedagógica do promotor de Justiça do MPDFT Thiago Pierobom, a atividade acadêmica é um dos produtos do projeto de pesquisa da ESMPU “Estudo exploratório sobre metodologias de avaliação de risco de violência grave ou feminicídio em contexto de violência doméstica e familiar contra a mulher”. O objetivo do estudo é construir uma metodologia de avaliação automatizada de risco de feminicídio ou violência física grave praticada por parceiro íntimo ou familiares individualizada ao contexto sociocultural do Distrito Federal, que oriente a tomada imediata de decisão dos profissionais do sistema de Justiça. 

"Estamos usando uma ferramenta de IA para ler os processos e os formulários de avaliação de risco. Com base nisso, criamos um grande banco de dados e podemos analisar quais desses processos evoluíram para recidiva e estratificar qual tipo. Antes as pesquisas eram limitadas a um número pequeno de casos. Com o uso da IA , conseguimos analisar 100%. Esse estudo tem um potencial enorme de ajudar as mulheres, de salvar vidas”, explicou Pierobom. Segundo ele, sem essa avaliação de riscos, todos os casos são colocados numa vala comum. O estudo vai permitir sinalizar a priorização daqueles que possam evoluir para um feminicídio, por exemplo.

Palestra de abertura – “Eu acredito na tecnologia, embora a minha fala seja no sentido contrário. Acredito numa tecnologia desenvolvida de maneira responsável”, disse o professor do Instituto de Informática da Universidade Federal do Rio Grande do Sul (UFRGS) Edson Prestes, na palestra de abertura “IA para, e não contra, a humanidade”. Ele alertou sobre o impacto da tecnologia em todos os princípios de direitos humanos: dignidade humana, eleição livre e justa, direito à vida, à privacidade e à cultura, acesso aos sistemas de Justiça e a um julgamento justo, qualidade de vida, respeito à vida familiar, proibição de discriminação e padrão de vida decente.

IA não é neutra – O professor explicou que, a partir do momento que alguém desenvolve um sistema, cria uma estrutura lógica e decide os dados que são fornecidos para que ele aprenda, não há neutralidade. “Os sistemas são sexistas, preconceituosos. Será que as empresas estão abertas a essa discussão? Isso acontece por falta de conhecimento multidisciplinar para avaliar corretamente a tecnologia, falta de cuidado, de empatia e compaixão, bem como por foco no lucro”, pontuou.

Segundo Prestes, as empresas criam mecanismos para que os funcionários não tenham conhecimento do modus operandi. “Se alguém tivesse conhecimento de que estaria trabalhando na construção de uma máquina que vai matar outras pessoas, duvido que continuaria no projeto”, afirmou.

Para ele, um dos caminhos seria o diálogo aberto com os diferentes setores da sociedade. “É preciso mudar a forma como pensamos a tecnologia. Incorporar a empatia, a compaixão e o altruísmo”, acrescentou. Ele também discorreu sobre iniciativas de sociedades técnicas para o desenvolvimento responsável de tecnologia. “Temos caminhos e devemos segui-los. A cooperação é a chave”, concluiu. Confira duas publicações indicadas pelo professor: The age of digital interdependence e Ética da Inteligência Artificial.

Programação – O webinário contou com quatro painéis, o último dedicado a questões levantadas pelos participantes. O primeiro painel, “Desafios de transparência”, foi apresentado pelo professor do Departamento de Engenharia de Produção da Universidade de Brasília (UnB) João Gabriel de Moraes Souza, que abordou os riscos do uso da IA sem a preocupação ética, social e política e como decidir com o auxílio da IA sem abdicar do devido processo legal.

O segundo painel, “Impactos em grupos em situação de vulnerabilidade”, ficou a cargo do professor de Psicologia do UniCEUB Carlos Manoel Lopes Rodrigues, que discorreu sobre os problemas do uso da IA, como os vieses, a opacidade algorítmica e a assimetria de poder, além dos riscos à privacidade. Por fim, a professora Luciana Valadares, da Georgetown University, falou sobre erros decisórios, supervisão humana e riscos de uso da abordagem atuarial pela justiça criminal.

Secretaria de Comunicação Social
Escola Superior do Ministério Público da União
E-mail: secom@escola.mpu.mp.br
Telefone: (61) 3553-5300