![Cresce uso da IA para criar imagens com vítimas de abuso — Foto: Sinenkyi via Getty Images](https://cdn.statically.io/img/s2-epocanegocios.glbimg.com/xK6g_0SplHOjBjm1moaTIDpBwfc=/0x0:2121x1414/984x0/smart/filters:strip_icc()/i.s3.glbimg.com/v1/AUTH_e536e40f1baf4c1a8bf1ed12d20577fd/internal_photos/bs/2024/J/P/DqmJyVQbyUxnBKeyF1rg/kids.jpg)
Ferramentas de inteligência artificial estão sendo utilizadas por predadores sexuais para gerar imagens pornográficas infantis com base em fotos de crianças que foram vítimas de notórios casos de abuso sexual, aponta uma reportagem do The Guardian.
De acordo com o jornal britânico, grupos de defesa e segurança infantil que rastreiam a atividade de predadores em fóruns da dark web encontraram conversas que mostram como ferramentas de IA estão sendo usadas para criar novas imagens, baseadas em fotos antigas de casos de abuso sexual infantil.
Pelas conversas, ficou claro que algumas crianças são consideradas "estrelas" pelos criminosos. "As comunidades que circulam esse material ficam obcecadas por certas crianças e querem mais conteúdo. Agora, a IA permite que eles façam isso", afirmou Sarah Gardner, CEO da ONG americana Heat Initiative.
Uma das preocupações das ONGs é a nova exposição sofrida pelos sobreviventes, já que muitas das "crianças" das imagens agora são adultos. A manipulação de fotos antigas pode fazer com que revivam o trauma. E ainda que tenham sua vida e carreira ameaçadas, caso as novas imagens venham a circular na internet.
A troca de mensagens entre predadores sexuais costuma acontecer na dark web, em navegadores anônimos e não rastreáveis, o que dificulta a atuação de especialistas em segurança digital e policiais.
Em entrevista, Megan, que foi vítima de um crime sexual há mais de 10 anos, disse que o crescimento de imagens manipuladas por IA se tornou motivo de estresse para ela no último ano. "A IA dá aos abusadores a oportunidade de criar ainda mais cenas para alimentar suas fantasias", disse ela. "A maneira como minhas imagens podem ser manipuladas com IA é perturbadora."
O Guardian teve acesso ao conteúdo de alguns dos fóruns em que a possibilidade é discutida. Muitos disseram estar "entusiasmados" com a ideia, enquanto outros não se interessaram porque as novas imagens "não retratam abusos reais".
Assim como no restante do mundo, o uso de IA entre predadores sexuais se popularizou no fim de 2022, após a estreia do ChatGPT. No mesmo ano, uma ONG criou o banco de dados LAION-5B, com mais de 5 bilhões de imagens, sendo que milhares delas eram de vítimas de abuso. O que a organização nãon sabia é que, com a ajuda da IA generativa, crimonosos digitais poderiam ter acesso ao material.