El aviso de CaixaBank a sus clientes por una estafa que usa la IA Ideal
Caixabank lanza un importante mensaje a sus clientes por un correo estafa

Caixabank lanza un importante mensaje a sus clientes por un correo estafa

La estafa se basa en enviar vídeos, imágenes o archivos de voz manipulados a través de la IA para que parezcan reales

C. L.

Lunes, 1 de julio 2024, 12:20

Necesitas ser suscriptor para acceder a esta funcionalidad.

Opciones para compartir

De nuevo las entidades bancarias se afanan en mantener informados a sus clientes de todas las peligrosidades que pueden afectarles. En este sentido, los de CaixaBank han recibido en los últimos días información de la entidad bancaria acerca de una nueva estafa que está circulando y que ya ha afectado a varios usuarios. Los clientes bancarios están en el punto de mira de los estafadores. En esta ocasión, el banco informa por un correo electrónico sobre el peligro de caer en el deepfake. Esta es una técnica de Inteligencia Artificial que los delincuentes usan para robar.

La estafa se basa en enviar vídeos, imágenes o archivos de voz manipulados a través de la IA para que parezcan reales. Cuenta con una técnica de inteligencia artificial. La tecnología deepfake es un técnica de inteligencia artificial que combina las palabras 'deep learning' (aprendizaje profundo) y 'fake' (falso).

Los deepfake son archivos de vídeo, imagen o voz manipulados mediante software de inteligencia artificial de modo que parezcan auténticos. Son archivos de vídeo, imagen o voz manipulados con inteligencia artificial para que parezcan auténticos.

Los deepfakes suponen una amenaza porque pueden ser utilizados para perpetrar fraudes sofisticados. Por ejemplo, para simular un vídeo de un alto directivo o CEO anunciando noticias falsas o incluso causar fluctuaciones en el mercado de valores.


Por lo tanto, es crucial estar informado, ser crítico con el contenido multimedia que consumimos y saber cómo detectar un posible deepfake.

Cómo detectar un potencial deepfake

Detectar un deepfake no es sencillo, debido a la sofisticación de la tecnología, pero hay algunas señales que pueden ayudarnos a sospechar:

-Rostro y cuerpo: Los deepfakes suelen centrarse en el rostro, por lo que si el cuerpo parece desproporcionado o mal alineado, es una señal para sospechar.

-Número de parpadeos: Los deepfakes a menudo tienen dificultades para replicar el parpadeo natural de los ojos. Es decir, si en el vídeo el personaje no parpadea suficientemente, podría ser una indicación de falsedad del vídeo.

-Detalles faciales y de la piel: En vídeos deepfake, los bordes de las imágenes pueden ser borrosos, la piel puede parecer demasiado lisa o arrugada y las expresiones faciales pueden ser entrecortadas o poco naturales.

-Verificación de fuentes: Si un vídeo o cualquier contenido proviene de una fuente no verificada o poco fiable, debemos sospechar sobre su legimitidad.

-Extensión del vídeo: Los deepfakes suelen ser vídeos cortos. Por tanto si el vídeo es largo, será más probable que sea legítimo.

-Software de detección de deepfakes: Para procesos que requieren de una verificación más minuciosa, se puede recurrir a soluciones de detección de deepfakes. Cabe indicar que ninguna solución tecnológica va a poder garantizar al 100% la legitimidad o no de un vídeo.

Es importante recordar que ninguna de estas señales es definitiva por sí sola. La mejor defensa contra los deepfakes es una combinación de concienciación y cierto escepticismo, sentido común ante determinados contenidos y sobre todo revisar otras fuentes, antes de dar por buenos los mensajes que puedan aparecer en los vídeos.

Reporta un error en esta noticia