Fotos de niños brasileños son usadas sin consentimiento para alimentar IA, según Human Rights Watch

Un análisis indica que hasta imágenes publicadas en redes restringidas fueron encontradas en la plataforma

São Paulo

El informe divulgado por la ONG Human Rights Watch, este lunes (10), señala que fotos de niños y adolescentes brasileños son usadas para crear herramientas de inteligencia artificial sin consentimiento. El análisis concluyó que LAION-5B, un conjunto de datos usado para entrenar herramientas populares de IA y construido a partir de la recopilación de información de gran parte de internet, posee enlaces a fotos identificables de niños.

Además de las imágenes, la plataforma también dispone los nombres de algunos niños en los pies de foto o en la URL donde la imagen está almacenada. La investigación también concluyó que, en muchos casos, las identidades son rastreables, con información sobre cuándo y dónde estaba el niño en el momento en que se tomó la foto. Entre los ejemplos, la organización dice que una de las fotos modificadas muestra a una niña de dos años con su hermana recién nacida. El pie de foto detalla el nombre de las niñas, la ubicación del hospital y la fecha en que nació el bebé. En total, se encontraron 170 fotos de menores de diez estados brasileños.

Sin embargo, la organización afirma que ese número es una pequeña muestra del problema, ya que LAION-5B posee 5,85 mil millones de imágenes y pies de foto, y Human Rights Watch analizó 0,0001% del total.

Las imágenes muestran recién nacidos, niños pequeños soplando velas, bailando en casa, estudiantes en medio de presentaciones de baile y adolescentes celebrando el Carnaval. Hay imágenes de diferentes fechas y fotos de hasta diez años antes de la creación de LAION-5B. La investigación fue conducida por Hye Jung Han, investigadora de derechos del niño y tecnología de la ONG. Ella afirma que decidió investigar las plataformas de IA tras descubrir que más de 80 jóvenes en diferentes estados de Brasil fueron blanco de acoso sexual después de que compañeros de escuela modificaron sus fotos en deepfake. A partir de las búsquedas, Han notó que las imágenes usadas por las herramientas no son de bancos de imágenes o ligadas a celebridades famosas. La investigadora afirma que las imágenes encontradas en las herramientas fueron publicadas en sitios de escuelas, blogs personales y canales de YouTube.

Lea el artículo original