_
_
_
_

Mayúsculas, exclamaciones, emojis, dibujos, imágenes y vídeos delatan los bulos

Un equipo de Granada y el Imperial College desarrolla un programa para identificar noticias falsas

Raúl Limón
Un tuit sobre la detención de una mujer durante los disturbios del pasado 22 de octubre en Tarragona.
Un tuit sobre la detención de una mujer durante los disturbios del pasado 22 de octubre en Tarragona.

En torno a una cita casual en un bar salen algunos proyectos interesantes. De una reunión de amigos durante unas copas surgió la misión israelí a la Luna. Algo parecido ocurrió con una reciente investigación sobre las características de los bulos o fake news en Twitter, una de las principales redes sociales. A Miguel Molina, científico de datos que investigaba en el Imperial College de Londres, mientras conversaba con Juan Gómez Romero, del departamento de Ciencias de la Computación de la Universidad de Granada, se le ocurrió desarrollar un sistema para detectar los bulos. Sus resultados preliminares detectan patrones de escritura, envío y comportamiento que abren la puerta a acabar con la plaga de la desinformación. No obstante, Twitter advierte de las limitaciones de estudios similares.

“Lo primero fue acotar el campo de investigación y definir fake news”, comenta Molina. “De forma muy resumida, son mentiras intencionadas que buscan dinero o tráfico”, explica. Esa definición coincide con otras de este mismo campo que vinculan la proliferación de noticias falsas a intentos de desestabilización, influencia y monetización.

“Un familiar o un amigo puede pensar que está enviando información que cree que es verdadera, pero no tiene intención en ello”, explica el investigador. Con esta premisa, el equipo, con la colaboración del Imperial College, comenzó a recopilar, anotar y seleccionar tuits que respondían a su objeto de estudio.

La aplicación de análisis estadísticos y matemáticos sobre el material arrojó unas características particulares en la redacción de las fake news: suelen incorporar mayúsculas, exclamaciones, emojis (pictogramas), dibujos, imágenes y vídeos. “Buscan la sorpresa, llamar la atención”, argumenta Molina.

Tuit difundido el pasado 22 de octubre en el que, encabezado con la expresión "Noches de horror en Cataluña", se atribuye a la policía el "secuestro" (Privación de libertad ambulatoria a una persona o grupo de personas, exigiendo, a cambio de su liberación, el cumplimiento de alguna condición, como puede ser el pago de un rescatede) de una "joven". Se trata de la detención de una mujer en Tarragona por los disturbios contra la sentencia del procés. La magistrada del Juzgado de Instrucción 1 de Tarragona, en funciones de guardia, dictó orden de prisión provisional sin fianza para la acusada.

Este comportamiento pretende pescar en aguas de la polarización, es decir, “funcionan porque los destinatarios están dispuesto a creerse las noticias falsas”. Con esa complicidad entre emisor y receptor, la capacidad de penetración y difusión se multiplica. Su envío masivo ya consigue el efecto deseado cuando la intención es la influencia. Si, además, se quiere conseguir dinero, incluye enlaces para transferir tráfico a una determinada web con el fin de monetizar las visitas o atraer compras o pagos.

El trabajo, publicado en la revista internacional IEEE Access, analiza matemáticamente otras características de los tuits, como los metadatos que identifican la cuenta, el autor, el número de seguidores, favoritos, contactos o fecha de registro en la red social.

Todas estas características, filtradas por un programa informático, han permitido determinar que las cuentas que comparten información errónea se crean vinculadas a un episodio (disturbios en Cataluña, elecciones, Brexit) concreto de la actualidad. De esta forma, además de tener más opciones de captar la atención al sumarse a temas que son tendencia, se benefician de un menor tiempo de los equipos de la red social y ajenos para que sean verificadas.

También han detectado que las cuentas de fake news usan caracteres extraños tanto en su nombre como en su descripción, y tienen pocos seguidores, pero sí siguen a muchos usuarios a los que intentan ganar con su adhesión y que sirvan de correa de transmisión. Este comportamiento, conocido como reciprocidad altruista, permite que «la creación de enlaces dirigidos a otros nodos impulse a los segundos a corresponder mediante la creación de un vínculo con el primero», según la investigación.

Juan Gómez Romero (izquierda) y Miguel Molina Solana (derecha), en el Observatorio de Datos de Imperial College London.
Juan Gómez Romero (izquierda) y Miguel Molina Solana (derecha), en el Observatorio de Datos de Imperial College London.UGR

De esta forma, ya sean creados por robots o por personas, tanto en su creación como en la estrategia de difusión buscan explotar sesgos humanos conocidos, como el de confirmación (tendencia a favorecer, buscar y recordar la información que confirma las propias creencias) o como el mencionado de reciprocidad altruista.

El modelo desarrollado por Molina y Gómez con la colaboración del Imperial College permite establecer una clasificación numérica sobre las probabilidades de que el tuit analizado sea un bulo. De esta forma, se puede establecer un código numérico (50% de ser fake news) o de colores (rojo o verde) para advertir al lector de que podría encontrarse ante una mentira intencionada.

Los sistemas actuales de verificación manual no son capaces de responder a todo el tráfico que se genera, circunstancia que aprovechan los propagadores de bulos para inundar las redes. Con un algoritmo matemático, al menos se podría preavisar a los usuarios de qué tipo de información están recibiendo y las probabilidades de que se trate de una falsedad, explica Molina.

Twitter advierte de las limitaciones de estos programas

La red social ha agradecido la investigación y reitera que para proyectos similares ponen a disposición del público de forma gratuita los datos de su interfaz de programación de aplicaciones (API). "Ningún otro servicio o plataforma hace esto", afirman fuentes de la compañía.

Sin embargo, la red social recuerda que su director de Integridad, Yoel Roth, ya ha advertido de los defectos y fallos en la investigación de bots o mensajes creados de forma automática. "Vemos una gran cantidad de investigaciones (...) que realizan evaluaciones exhaustivas de los comportamientos de la cuenta utilizando solo señales públicas, como la ubicación (si se cita), el contenido de la cuenta, la frecuencia de tuits y las cuentas que siguen. Para ser claros: ninguno de estos indicadores es suficiente para determinar la atribución definitivamente. Buscar cuentas que se parezcan a las divulgadas es un enfoque igualmente defectuoso, dado que muchos de los malos actores imitan las cuentas legítimas para parecer creíbles. Este enfoque también a menudo captura erróneamente las voces legítimas que comparten un punto de vista político particular con el que uno no está de acuerdo".

"Antes de participar en este tipo de investigación y hacer estas afirmaciones, se deben considerar las normas éticas. Hacer lo contrario no promueve el conocimiento público, sino que corre el riesgo de socavar profundamente la confianza en el debate público y la conversación", advierte Roth.

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Sobre la firma

Raúl Limón
Licenciado en Ciencias de la Información por la Universidad Complutense, máster en Periodismo Digital por la Universidad Autónoma de Madrid y con formación en EEUU, es redactor de la sección de Ciencia. Colabora en televisión, ha escrito dos libros (uno de ellos Premio Lorca) y fue distinguido con el galardón a la Difusión en la Era Digital.

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_