Estas son las tres estafas más comunes realizadas con ayuda de Inteligencia Artificial, según advierte un experto
Los últimos adelantos en esta tecnología se convirtieron en un arma de doble filo para el uso abusivo y con un trasfondo malicioso
- 03 minutos de lectura'
![El uso de la IA se volvió más frecuente para cometer estafas](https://cdn.statically.io/img/www.lanacion.com.ar/resizer/v2/el-uso-de-la-ia-se-volvio-mas-frecuente-para-TCKKKV5GUJFPLCUYMZCELQDGGA.png?auth=3c51f9161a8de56d16509dcb859961e82654f5c004da0af5442b7e843843a153&width=420&height=280&quality=70&smart=true)
Los avances en los últimos meses de la inteligencia artificial en campos como la educación, salud, industria o entretenimiento no han dejado indiferente a nadie. Tampoco lo hizo con los ciberdelincuentes, que están realizando nuevos tipos de estafas para sacar provecho personal y hacer daño a los usuarios.
Como se recuerda, aplicaciones como ChatGPT o Midjourney son herramientas impulsadas por la inteligencia artificial generativa, y que permiten, a su vez, crear a petición del usuario toda clase de textos e imágenes. Estas pueden ser utilizadas de manera maliciosa por personas para aprovecharse de los más.
![El uso de ChatGPT, propio de la empresa OpenAI, se convirtió en una de las herramientas predilectas para realizar estafas (Foto AP/Michael Dwyer)](https://cdn.statically.io/img/resizer.glanacion.com/resizer/v2/el-uso-de-chatgpt-propio-de-la-empresa-openai-se-WS6YEJQA7BFTJIWYBHGYFTULNI.jpg?auth=1863ce69e773f436b978b936cb6f4ff4c977a7d41d5c6b459e2e731ebbc68e32&width=420&height=280&quality=70&smart=true)
“La IA puede usarse para ayudar a los profesionales de ciberseguridad a tratar la cada vez mayor complejidad de los sistemas modernos, así como la gran cantidad de datos creados por ellos, e intentar estar por delante de los ciberatacantes”, expresa Willy Ugarte, docente de la maestría en Data Sciencie de la Escuela de Postgrado UPC. “Mi recomendación es estar siempre atentos a las últimas noticias sobre estafas virtuales y, al encontrarse con alguna, no acceder a ningún enlace, no brindar información secreta como claves de tarjetas de crédito y hacer caso omiso a las llamadas desconocidas”.
Acá te dejamos tres estafas impulsadas por herramientas IA que debemos tener en cuenta, según el docente en la UPC:
Clonación de voz por IA: en los últimos meses, diferentes usuarios señalaron que recibieron llamadas de familiares afirmando estar secuestrados y pidiendo dinero para no ser lastimados. Uno de los actos más mediáticos fue el nombrado hace unos días por una actriz muy conocida que afirmó haber sufrido esta estafa al ser copiada su voz y presentándola a su madre como un secuestro.
La variante estafa de Chat GPT: WormGPT es una herramienta que, además de producir un malware, crea correos electrónicos notablemente persuasivos y personalizados para el destinatario lo que aumenta las posibilidades en el éxito de ataque.
Videollamadas estafa: es una modalidad de la que todavía no hay registros en nuestro país. Básicamente, el ciberatacante utiliza la herramienta del deepfake para hacerse pasar por alguien y decirle a un familiar suyo que ha sido secuestrado, para luego pedir dinero por su rescate. Esto se complementa con aplicativos IA de generación de audio para reemplazar la voz.
Ahora bien, ¿qué debemos hacer para evitar caer en estas estafas?
- Tener cuidado con los datos personales, pues con ellos pueden acceder a tu información bancaria, financiera o personal.
- Eliminar cualquier correo sospechoso y evitar ingresar a links o descargar aplicaciones sospechosas que puedan extraer información bancaria.
- Tomar precauciones antes de hacer clic en enlaces recibidos por correo electrónico, mensajes de SMS y redes sociales debe ser un comportamiento instintivo para los usuarios, al igual que mirar a ambos lados antes de cruzar la calle.
Otras noticias de GDA
Más leídas de Tecnología
¿Cada cuánto cambiás el celular? Los smartphones son víctimas de su propio progreso, y sufren del mismo mal que las PC
Nuevos modelos. Samsung presentó nuevos relojes inteligentes y auriculares inalámbricos con un estilo parecido al de Apple
Imaginación. Cómo se vería Peppa Pig en la vida real, de acuerdo a la inteligencia artificial
Paso a paso. Cómo activar el “modo Minion” en WhatsApp