Sam Altman, en la cuerda floja: el caos se apodera de OpenAI tras la llegada de GPT-4o

Jyoti Mann,
Beatrice Nolan
| Traducido por: 
Sam Altman, CEO de OpenAI, en un congreso sobre seguridad e IA celebrado en noviembre de 2023.
Sam Altman, CEO de OpenAI, en un congreso sobre seguridad e IA celebrado en noviembre de 2023.

REUTERS/Toby Melville/Pool

  • Sam Altman está en la cuerda floja después de que un antiguo directivo de OpenAI haya expresado su preocupación acerca de la seguridad de la IA. El director ejecutivo ha admitido que a OpenAI todavía le queda "mucho que hacer".
  • La desarrolladora de ChatGPT se ha puesto a la defensiva en relación a sus nuevos productos, como GPT-4o, y a las informaciones acerca de que se está silenciando a exempleados de la compañía.

OpenAI está teniendo unos días difíciles.

La empresa se ha puesto a la defensiva tras la marcha de algunos de sus principales responsables en materia de seguridad, además de la publicación de algunas informaciones que dan a entender que sus estrictos acuerdos de confidencialidad están silenciando a sus antiguos trabajadores y sus reacciones en contra de una nueva versión de ChatGPT.

Las dramáticas salidas de Jan Leike e Ilya Sutskever la semana pasada obligaron a los líderes de OpenAI, incluido su CEO (Sam Altman), a hacer unas declaraciones públicas defendiendo sus esfuerzos por controlar los riesgos que plantea la inteligencia artificial.

Cuando al día siguiente salió a la luz un artículo de Vox —el medio de comunicación estadounidense— acerca de los estrictos acuerdos de confidencialidad de OpenAI, Altman respondió diciendo que era una de las "pocas veces" que se había sentido "realmente avergonzado" de ser el director de OpenAI

El director ejecutivo añadió que no era consciente de que se impusiesen esas cláusulas a los empleados que se marchaban y aseguró que la compañía estaba trabajando para rectificar dichos acuerdos.

Se trató de una rara concesión por parte de Altman, que ha trabajado duro para cultivar una imagen de relativa calma en medio del caos que reina en OpenAI. El año pasado tuvo lugar un fallido golpe de estado que tenía intención de destituirlo y que terminó reforzando su reputación como CEO, pero parece que OpenAI está empezando a resquebrajarse una vez más.

La implosión del equipo de seguridad

La desarrolladora de ChatGPT se ha puesto manos a la obra para hacer control de daños tras la dimisión de dos trabajadores clave que se encargaban de velar por la seguridad de la IA. Tanto Leike como Sutskever, que dirigían el equipo responsable de garantizar que la inteligencia artificial no se vuelva loca y extermine a la humanidad, anunciaron su marcha la semana pasada.

Leike presentó su dimisión a través de una larga publicación en X (la red social anteriormente conocida como Twitter), en la que acusaba a sus antiguos jefes de anteponer los "productos brillantes" a la seguridad. Afirmó que el equipo de seguridad estaba "luchando por la computación, y cada vez era más difícil llevar a cabo esta investigación crucial".

Altman, que se apresuró a desempeñar su papel de gestor de crisis, compartió la publicación de Leike y añadió: "Tiene razón, nos queda mucho por hacer; nos comprometemos a hacerlo".

Estas importantes dimisiones han llegado poco después de que hayan tenido lugar otras salidas fundamentales.

Según una información recogida por The Information, dos investigadores de seguridad, Leopold Aschenbrenner y Pavel Izmailov, fueron despedidos recientemente por supuestas filtraciones de información.

Los investigadores sobre seguridad y gobernanza, Daniel Kokotajlo y William Saunders, también abandonaron recientemente la empresa de IA, mientras que Cullen O'Keefe, jefe de investigación sobre políticas fronterizas, lo hizo en abril, tal y como se puede ver su perfil de LinkedIn.

Kokotajlo declaró a Vox que había "perdido gradualmente la confianza en el liderazgo de OpenAI y su capacidad para manejar responsablemente AGI", refiriéndose así a las siglas en ingles de la inteligencia artificial general (una tecnología con una capacidad intelectual similar, cuando no superior, a la de un ser humano).

Greg Brockman y Sam Altman han firmado conjuntamente un post sobre el enfoque de OpenAI con respecto a la seguridad y el riesgo de la IA.

El equipo de superalineación de OpenAI, dirigido por Leike y Sutskever, contaba con unos 20 miembros el año pasado, pero ahora habría sido disuelto. Un portavoz de OpenAI ha indicado a The Information que la startup ha fusionado al personal restante con su equipo de investigación más amplio para cumplir sus objetivos en materia de superalineación.

La desarrolladora de ChatGPT tiene otro equipo centrado en la seguridad llamado Preparedness, pero las dimisiones y salidas de alto rango no son una buena imagen para una compañía a la vanguardia del desarrollo avanzado de IA.

Empleados silenciados

La implosión del equipo de seguridad ha supuesto un duro golpe para Altman, que se ha esforzado por demostrar que se preocupa por la seguridad cuando se trata de desarrollar inteligencia artificial superinteligente.

El año pasado, durante su participación en el podcast de Joe Rogan, señaló: "Muchos de nosotros estábamos superpreocupados, y seguimos estándolo, por la seguridad y la alineación. En cuanto a la versión de 'no destruir a la humanidad', nos queda mucho trabajo por hacer, pero creo que por fin tenemos más ideas sobre lo que puede funcionar".

Algunos piensan que las afirmaciones de Leike desestiman la autoridad de Altman en la materia y han levantado ampollas en un sentido más amplio.

Neel Nanda, que dirige el equipo de interpretabilidad mecanicista de Google DeepMind (encargado de "reducir el riesgo existencial de la IA"), respondió al hilo de Leike: "Historias bastante preocupantes de lo que está ocurriendo dentro de OpenAI".

Sam Altman, CEO de OpenAI, en Madrid.

El viernes, Vox informó acerca de que los estrictos acuerdos de confidencialidad firmados por los trabajadores de OpenAI silenciaban sus posibles críticas con respecto a la startup de inteligencia artificial.

Al parecer, dichos acuerdos incluían cláusulas de no divulgación y no descrédito que podían privar a los empleados de sus derechos adquiridos si criticaban a su antigua empresa o incluso si reconocían que existía un acuerdo de confidencialidad.

Altman se refirió a esta información a través de una publicación en X: "Esto es culpa mía y una de las pocas veces que me he sentido realmente avergonzado dirigiendo openai; no sabía que esto estaba pasando y debería haberlo sabido".

Y agregó: "El equipo ya estaba en proceso de arreglar el papeleo estándar de salida durante el último mes más o menos".

La voz de "ella" en pausa

A pesar de los esfuerzos de OpenAI por contener el caos, la cosa no parece haber terminado.

Este mismo lunes, la compañía ha anunciado que va a poner en pausa la voz "Sky" de ChatGPT, que recientemente ha sido comparada en redes sociales con Scarlett Johansson. "La voz de Sky no es una imitación de Scarlett Johansson, sino que pertenece a una actriz profesional diferente que utiliza su propia voz natural", ha argumentado OpenAI en un comunicado.

La voz, una pieza clave de la demo con la que se presentó el nuevo modelo de IA de la desarrolladora de ChatGPT, GPT-4o, ha sido comparada con el personaje de asistente virtual de Johansson en la película Her, de Spike Jonze. Altman incluso pareció reconocer el parecido, limitándose a poner "her" en X durante la presentación.

 

Algunos usuarios se han quejado de la nueva voz del chatbot, calificándola de excesivamente sexual y coqueta en los vídeos de demostración que circularon por internet. Aparentemente ajena a las críticas, OpenAI se mostró triunfante tras el lanzamiento. 

Altman, habitualmente reservado, incluso pareció hacer sombra a Google, que presentó sus nuevos productos de inteligencia artificial al día siguiente.

"Intento no pensar demasiado en la competencia, pero no puedo dejar de pensar en la diferencia estética entre openai y google", aseguró Altman en X, en un mensaje que iba acompañado de imágenes de las propuestas rivales.

OpenAI no ha respondido a una petición de comentarios de Business Insider, realizada fuera del horario de trabajo habitual.

Conoce cómo trabajamos en Business Insider.