Soy experto en ciberseguridad y me gusta usar la IA, pero nunca compartiría algunas cosas con ChatGPT o sus competidores

Shubhangi Goel
| Traducido por: 
Una ilustración sobre ciberseguridad.

iStock; Business Insider

  • Un experto en ciberseguridad advierte del peligro de compartir información con los chatbots de inteligencia artificial como ChatGPT o Gemini. Esos datos se pueden utilizar para entrenar modelos IA y hacer que se pueda buscar información personal.
  • Muchas empresas carecen de políticas de inteligencia artificial, lo que lleva a sus trabajadores a poner en riesgo información confidencial sin ni siquiera saberlo.

Este artículo está basado en una conversación con Sebastian Gierlinger, vicepresidente de Ingeniería de Storyblok (una compañía de sistemas de gestión de contenidos con sede en Austria que tiene 240 empleados). La transcripción de la conversación con Gierlinger ha sido editada para darle una mayor claridad y concisión.

Soy experto en seguridad y vicepresidente de Ingeniería de una empresa de sistemas de gestión de contenidos que cuenta entre sus clientes con organizaciones como Netflix, Tesla o Adidas.

Considero que la inteligencia artificial y sus avances más recientes son una bendición para los procesos de trabajo, pero las nuevas capacidades que ofrecen estos generadores de texto por IA también requieren tener más cuidado y ser más consciente.

Estas son las cuatro cosas que yo tendría en cuenta a la hora de interactuar con chatbots de inteligencia artificial como ChatGPT (de OpenAI), Gemini (de Google), Claude (de Anthropic) o Perplexity AI.

Es como utilizar las redes sociales

Algo importante que hay que recordar al utilizar estos generadores de texto es que la conversación no es solo entre la IA y tú.

Yo mismo utilizo ChatGPT y otros grandes modelos lingüísticos (LLM, por sus siglas en inglés) similares para coger ideas para irme de vacaciones o escribir preguntas como: "Oye, ¿qué lugares soleados hay en mayo con playas decentes y al menos 25 grados?".

Pero pueden surgir problemas si soy demasiado específico. La compañía puede utilizar estos detalles para entrenar a su siguiente modelo y alguien podría preguntar al nuevo sistema detalles sobre mí, y esas partes de mi vida pasarían a ser susceptibles de ser encontradas a través de una simple búsqueda.

ROBOTS HUMANOIDES

Lo mismo puede decirse de compartir detalles sobre tus finanzas o tu patrimonio neto con los LLM. Aunque no hemos visto ningún caso en el que esto haya sucedido, el peor resultado sería que los datos personales se introdujesen en el sistema y luego se revelasen en una de las búsquedas.

Podría haber ya modelos capaces de calcular tu patrimonio basándose en dónde vives, a qué sector perteneces y otros detalles sobre tus padres o tu estilo de vida. Probablemente eso sea suficiente para calcular tu capital y saber si eres un objetivo viable o no para las estafas, por ejemplo.

Si tienes dudas sobre qué detalles compartir, pregúntate si lo publicarías en Facebook. Si tu respuesta es no, entonces no lo subas al modelo lingüístico.

Sigue las directrices de tu empresa sobre inteligencia artificial 

A medida que se generaliza el uso de la IA en el lugar de trabajo para tareas como la programación o el análisis de datos, es crucial seguir la política de inteligencia artificial que tenga tu compañía.

Por ejemplo, mi empresa tiene una lista de elementos confidenciales que no se nos permite subir a ningún chatbot o LLM. Esto incluye información como salarios, información sobre trabajadores y resultados financieros.

Hacemos esto porque no queremos que alguien escriba preguntas como: "¿Cuál es la estrategia de negocio de Storyblok?" y que ChatGPT proceda a escupir "Story Block está trabajando actualmente en 10 nuevos proyectos para las organizaciones 1, 2, 3, 4 y esperan unos ingresos de X, Y, Z en el próximo trimestre". Eso sería un gran problema para nosotros.

En cuanto a la programación, tenemos una política según la cual la IA, como Copilot (de Microsoft), no puede ser responsable de ningún código fuente. Todo el código producido por la inteligencia artificial debe ser revisado por un desarrollador humano antes de ser almacenado en nuestro repositorio.

Utilizar los LLM con precaución en el trabajo

En realidad, alrededor del 75% de las compañías todavía no tienen una política de IA. Muchos empresarios tampoco se han suscrito a las suscripciones corporativas de inteligencia artificial y solo les han dicho a sus empleados: "Oye, no está permitido usar IA en el trabajo".

Pero la gente accede a la inteligencia artificial a través de sus cuentas personales, porque las personas son personas.

Una ilustración del logo de Google en el iris de una persona.

Aquí es cuando hay que tener cuidado con lo que se introduce en un gran modelo lingüístico.

En el pasado, no había ninguna razón real para subir datos de tu compañía a una página web aleatoria. Pero ahora, los trabajadores de finanzas o de consultoría que quieran analizar un presupuesto, por ejemplo, podrían subir perfectamente las cifras de su organización o de sus clientes a ChatGPT u otra plataforma y hacerle preguntas. 

Estarían cediendo datos confidenciales sin ni siquiera darse cuenta.

Diferenciar entre chatbots

También es importante diferenciar entre los chatbots de IA, ya que no todos están desarrollados de la misma manera.

Cuando utilizo ChatGPT, por ejemplo, confío en que OpenAI y todos los implicados en su cadena de suministro hacen todo lo posible para garantizar la ciberseguridad y que mis datos no se filtren a malos actores. Por el momento, confío en la startup respaldada por Microsoft.

Los chatbots de inteligencia artificial más peligrosos, en mi opinión, son los de cosecha propia. Los que se encuentran en páginas web de aerolíneas o de empresas médicas y puede que no estén invirtiendo en todas las actualizaciones de seguridad.

Por ejemplo, un médico puede incluir un chatbot en su página web para hacer un triaje inicial y el usuario puede comenzar a insertar datos de salud muy personales, que podrían permitir que otros conozcan sus enfermedades si se vulneran esos datos.

A medida que los chatbots de IA se asemejan más a los seres humanos, nos sentimos más inclinados a compartir y a abrirnos a temas que antes no hubiésemos abordado. Como regla general, animo a la gente a no utilizar ciegamente todos los chatbots con los que se encuentren y a no ser demasiado específicos, independientemente del LLM con el que estén hablando.

Conoce cómo trabajamos en Business Insider.