_
_
_
_

Falsos medios de comunicación que publican mil artículos al día: la IA llega a las granjas de contenido

Las webs que difunden artículos a discreción para ingresar dinero de la publicidad han empezado a hacerlo utilizando solo inteligencias artificiales generativas, como ChatGPT

ChatGPT
Una persona realiza una consulta a ChatGPT sobre su salud personal.MASSIMILIANO MINOCRI

Cuando una página web publica artículos de forma masiva, buscando ingresos al peso por publicidad, se la denomina granja de contenido. Existen desde hace años, probablemente desde que alguien vio que había negocio en crear contenido de forma barata, cuanto más mejor, para rentabilizarlo con anuncios servidos mediante plataformas automáticas, como Google AdSense. Con las inteligencias artificiales generativas de texto, como ChatGPT o Google Bard, esta dinámica adquiere una escala industrial.

Un estudio de la plataforma de monitorización de desinformación NewsGuard ha comprobado que cada vez hay más granjas de contenido que utilizan inteligencias artificiales generativas. Estos sitios se nutren de artículos creados por chatbots y, aparentemente, carecen de un trabajo editorial de apoyo. Sus cifras son astronómicas. En la semana del pasado 9 de junio, una de las webs examinadas, world-today-news.com, publicó alrededor de 8.600 artículos, es decir, una media de 1.200 artículos al día. Otras dos páginas que estaban en el radar de NewsGuard publicaron 6.108 y 5.867 publicaciones durante esa semana.

“Lo que está claro es que están utilizando IA para generar contenido clickbait de baja calidad”, afirma McKenzie Sadeghi, analista senior en NewsGuard. “Estas webs usan la tecnología para producir artículos de forma más rápida pero también de forma más barata”. Sadeghi se refiere a que las personas prácticamente han desaparecido de la ecuación: “Antes estas páginas web tenían un equipo de colaboradores humanos, freelance a los que pagaban por escribir contenido. Ahora no parece que haya ni siquiera mucha supervisión humana”, añade la experta.

Por eso estas granjas de contenido publican incluso los mensajes de error de los chatbots como si fueran titulares de noticias, y estas pistas han guiado a los investigadores para detectar el contenido escrito con IA. En su búsqueda, los analistas de NewsGuard se han topado con frases como “Lo siento, soy un modelo de lenguaje IA, no puedo acceder a enlaces externos ni páginas web por mi cuenta”; u otros mensajes más inquietantes: “Lo siento, no puedo cumplir con esta instrucción porque va en contra de mis principios éticos y morales”. El que no haya nadie que borre estos mensajes indica el grado de automatización de estas webs.

Las granjas de contenido están incentivadas para crear artículos a discreción. Cuantos más publiquen, más visitas atraerán a sus webs y más usuarios harán clic en los anuncios que tienen. NewsGuard comprobó que más del 90% de esta publicidad se sirve con Google Ads, cuyo algoritmo coloca anuncios de forma automática en las páginas adscritas a la plataforma. A esta plataforma publicitaria también se apuntan voluntariamente los anunciantes y sus mensajes pueden terminar en estas granjas de contenido. Entre mayo y junio, los analistas identificaron 393 anuncios de 141 marcas de gran relevancia en 55 páginas web de este estilo.

“Google no tiene una política que prohíba el contenido generado con IA, pero sí tienen una política que prohíbe el contenido que tiende al spam y de baja calidad, que esencialmente es lo que ofrecen estas páginas”, comenta Sadeghi. El gigante estadounidense ingresó en 2022 la friolera de 224.470 millones de dólares por publicidad, según datos de Statista. Aunque solo una parte reducida de esta cifra es atribuible a los anuncios automáticos, pues la mayor parte de la facturación proviene de la publicidad en búsquedas.

Un mensaje de error de una inteligencia artificial generativa publicado en una granja de contenido, sin supervisión humana.
Un mensaje de error de una inteligencia artificial generativa publicado en una granja de contenido, sin supervisión humana.

El uso de inteligencias artificiales generativas en las granjas de contenido crece rápidamente. “Estamos descubriendo entre 25 y 50 sitios a la semana de este tipo. A principios de mayo, identificamos 49 webs y ahora ya tenemos 277 webs en la lista. Algunas son nuevas y otras ya existían desde hace años y ahora están empezando a usar inteligencia artificial”, señala la analista senior.

La mayoría de los sitios analizados por NewsGuard, con anuncios de marcas relevantes, no difunden noticias falsas. A veces entran en el terreno de la desinformación, con titulares como ¿Puede el limón curar la alergia en la piel? o Cinco remedios naturales para trastorno de déficit de atención. Pero, en general, solo se les puede achacar su baja calidad, a menudo con contenido plagiado.

El auténtico problema viene de la combinación de las inteligencias artificiales generativas con la desinformación. En España, el investigador del CSIC David Arroyo, que trabaja en detección de fake news, vincula las IA con una mayor capacidad de fabricar noticias falsas: “El fenómeno de la desinformación va a aumentar, sin ningún género de dudas, por el hecho de que existan estas herramientas”, afirma categóricamente.

Munición para la desinformación

Un artículo de la revista Nature ya alertaba, en el año 2017, del vínculo entre las noticias falsas y la publicidad automática. Sostenía que la mayoría de las noticias falsas que se crearon durante la campaña electoral estadounidense de 2016 no tenían motivos políticos detrás, sino un incentivo económico. “Ya se hablaba de todo el ecosistema de anunciantes vinculado a la creación de dominios para contenidos inventados y su distribución. Con estas herramientas de IA todo se amplifica, porque la capacidad de crear contenido verosímil de forma artificial se ha incrementado sobremanera”, explica Arroyo.

Desde el CSIC han detectado que la desinformación ha aumentado en los últimos meses, aunque Arroyo no lo achaca todo a la IA: “Sería difícil aislar una única causa. Hay que tener en cuenta que en España llevamos desde mayo en procesos electorales, y a esto se suman todos los elementos de distorsión de los movimientos rusos relacionados con la guerra en Ucrania”, añade.

Hace unos meses, NewsGuard hizo un estudio sobre ChatGPT, en sus versiones 3,5 y 4, para evaluar su potencial como inventor de noticias falsas. “Los chatbots eran capaces de crear desinformación sobre temas como la política, la salud, el clima o cuestiones internacionales”, subraya Sadeghi. “El hecho de que sean capaces de producir esa desinformación, cuando alguien les guía, demuestra cómo las defensas de estos modelos pueden manipularse fácilmente”, señala la analista de NewsGuard. Y a esto se une su asombrosa capacidad de producir contenido de forma industrial.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_