Nunca en una semana habían cambiado tantas cosas en el panorama de la inteligencia artificial y la industria tecnológica para al final no cambiar nada. O quizá sí que han cambiado y mucho, aunque sea de forma estratégica. El pasado viernes 17 de noviembre, OpenAI, la creadora de ChatGPT y la organización con mayor influencia en la IA, anunciaba por sorpresa el despido fulminante de su CEO, Sam Altman.
La noticia llegó en forma de un escueto comunicado que alegaba pérdida de confianza en Altman por parte de la junta directiva. Pronto surgieron suposiciones, se analizaron luchas de poder internas, se estuvo muy cerca de que Microsoft, el inversor más fuerte de OpenAI, fichara a Altman y, al final, una semana después, todo parecía volver a su cauce.
Altman regresaba como CEO de OpenAI después de la amenaza de dimisión de la mayoría de sus ingenieros y se cambiaba su junta directiva para dar mayor estabilidad interna. Pero, entonces, nos enterábamos por la agencia Reuters de un descubrimiento que no había salido a la luz y que volvía a generar un cambio de guion.
Del despido y regreso de Altman a la incóginita de Q*
OpenAI había estado investigando en un nuevo sistema de IA denominado Q* (pronunciado Q-Star) que podría cambiar las reglas de juego que conocemos. Incluso se aludía en la filtración a un acercamiento a una posible Inteligencia Artificial General (AGI, por sus siglas en inglés). Esto es, estar cerca de que una IA pueda emular el razonamiento humano, con todo lo que eso supone tanto de oportunidades, como de riesgos solo imaginados en historias de ciencia-ficción.
Vamos, que el epílogo del drama de OpenAI, seguramente el mayor culebrón del año en tecnología, es abrir un debate ético y moral sobre las implicaciones de la IA. El mismo que posiblemente provocara el despido de Altman por visiones contrapuestas con otros de sus cofundadores y miembros de la junta.
¿Qué podemos extraer de todo lo que ha pasado? ¿Qué implicaría Q* dentro de lo poco que sabemos por ahora? Vamos a adentrarnos en la vanguardia de la IA y también en las cloacas de OpenAI, organización líder en tantas cosas que, sin embargo, si algo ha dejado claro es que no estaba para nada bien gestionada.
El origen: el despido de Altman
La salida de Sam Altman fue el resultado de un proceso de revisión interna por parte de la junta directiva, que concluyó que no había sido sincero en sus comunicaciones (la información de Q* encaja en este relato, al haberla protegido Altman), lo que entorpecía su capacidad para ejercer sus responsabilidades como CEO.
En un principio se creía que el movimiento había sido impulsado por Ilya Sutskever, cofundador y jefe científico de la organización. Parecía que Sutskever, referenciado como genio científico y pupilo del padre de la IA moderna Geoffrey Hinton, prefería un desarrollo más cauteloso de la IA frente a la visión dispuesta a explorar los límites de Altman.
Sin embargo, Sutskever acabó siendo también uno de los miembros de OpenAI que pidió la vuelta de Altman. Se sigue especulando si fue por un mecanismo de salida al ver cómo OpenAI se desmoronaba. Vamos, echar para atrás.
El amago de fichaje de Altman por Microsoft
Un día después, Microsoft fichaba a Sam Altman para liderar la innovación en IA dentro de la compañía. Esto llevó a nuevas especulaciones sobre si Microsoft había provocado el colapso en OpenAI. El 20 de noviembre, OpenAI anunció que Emmett Shear, cofundador de Twitch, asumiría el cargo de CEO interino de la organización, que ha durado apenas 48 horas en el cargo.
El regreso de Altman se dio después de que más 500 de los 700 empleados de OpenAI firmaron una carta conjunta amenazando con abandonar la empresa si Altman no regresaba.
Faltaba el giro final. Finalmente, Altman regresaba y se anunciaba una nueva junta a la que se añadían perfiles senior para dar mayor estabilidad como por Bret Taylor y Larry Summers, ex de Twitter o Salesforce e investigador de renombre respectivamente.
El desencadenante de todo parecía haber sido una pugna interna realizada desde una Junta Directiva formada por solo 6 personas, de las que dos, Sutskever y una investigadora ligada a los proyectos abiertos llamada Helen Toner, tenían visiones distintas a Altman. Ambos habrían convencido al resto para llevar a cabo la decisión. Un gran poder, en definitiva, controlado por pocas personas.
¿Quién controla realmente OpenAI ahora y antes? El papel de Microsoft
Algo llamativo es que todo esto sucediera sin que Microsoft, que es quien más dinero ha invertido en OpenAI, siquiera se enterara. Pero es que la organización de OpenAI es realmente peculiar, porque es un centro de investigación sin ánimo de lucro y una empresa a la vez.
Bajo el mandato de Altman la organización ha ido acercándose cada vez más a un modelo de empresa tradicional. Actualmente, OpenAI está dividida en dos entidades: OpenAI Incorporated y OpenAI LP. La primera es la organización sin fines de lucro fundada en 2015, mientras que la segunda es una subsidiaria con ganancias limitadas establecida en 2019 tras la salida de Elon Musk. Microsoft posee el 49% de OpenAI LP, convirtiéndose en un socio minoritario pero influyente.
La junta directiva de OpenAI ya había experimentado varios cambios a lo largo de su historia antes de llegar a lo que ocasionó el drama de estos días. Elon Musk y Sam Altman fueron los copresidentes en los primeros años, pero Musk abandonó la junta debido a desacuerdos de liderazgo. Desde entonces, se han producido diversas incorporaciones y renuncias.
El gran secreto: ¿Qué es Q-Star y qué puede hacer?
La revelación de Reuters sobre Q*, sin embargo, da peso a la idea de que hay un choque de posturas fuertes sobre si avanzar de forma intensa con la IA o hacerlo con mesura para medir bien sus implicaciones. Aceleracionistas vs conservadores, podrías decir.
¿Pero qué sabemos de Q*? Se dice que podría ser un avance importante en la búsqueda de la llamada inteligencia artificial general (AGI, por sus siglas en inglés). Según fuentes cercanas a la organización, Q es capaz de resolver ciertos problemas matemáticos y ha generado cierto estupor entre los investigadores de OpenAI debido a su potencial para realizar tareas científicas y de razonamiento más complejas.
Hay que tener en cuenta que la resolución de problemas matemáticos a través de un enunciado es uno de los umbrales marcados como críticos en el avance de la IA por los investigadores. Hasta ahora los grandes modelos del lenguaje (LLM) como GPT-4 se dedicaban a buscar en su dataset de conocimiento y concatenar respuestas. Ahora, con Q*, sería capaz de elaborarlas y, en cierto modo, razonarlas.
El debate ético planteado por el culebrón de OpenAI
Nadie se sorprenderá al decir que el avance de la inteligencia artificial plantea numerosos desafíos éticos y preocupaciones sobre su impacto en la sociedad que no son nuevos, pero que han vuelto a quedar expuestos con esta guerra interna.
Uno de los aspectos destacados en el conflicto interno de OpenAI fue la preocupación, aparentemente representada por Sutskever y otros investigadores, sobre el poder y la potencial amenaza que representa la IA para la humanidad.
Gracias a Reuters sabemos que algunos investigadores firmaron otra carta hacia los directivos de OpenAI tras conocer Q* mencionando el poder y los posibles peligros de este nuevo modelo, aunque no se especifican de forma clara los detalles exactos de estas preocupaciones.
La discusión sobre los riesgos de la IA ha sido objeto de debate entre los científicos de la computación durante mucho tiempo, supuestamente, temiendo la posibilidad de que las máquinas altamente inteligentes puedan tomar decisiones que no sean beneficiosas para la humanidad, o que un desarrollo acelerado genere un problema laboral no asimilable en poco tiempo.
Geoffrey Hinton, padre intelectual de Sutskever, ya salió de Google este mismo año aludiendo no estar de acuerdo con el enfoque de desarrollo de la IA poco preventivo que se estaba llevando a cabo.
No deberían avanzar más hasta que sepan si pueden controlarlo
Geoffrey Hinton
La IA también plantea desafíos en términos de sesgos y ética en su desarrollo. Los datos utilizados para entrenar los modelos de IA suelen estar sesgados hacia la mayoría de habla inglesa, de clase media, masculina y de países económicamente desarrollados. Estos sesgos pueden tener consecuencias negativas en la aplicación de la IA en diversos campos y en la toma de decisiones automatizadas.
El futuro de OpenAI y la IA
El caos interno en OpenAI y el posterior regreso de Altman han dejado preguntas sobre el futuro de la organización y el desarrollo de la IA en general. La composición de la nueva junta directiva sugiere un enfoque más centrado en los intereses comerciales de la compañía y una mayor estabilidad, lo que plantea dudas sobre la priorización de la seguridad y la ética en el desarrollo de la IA.
Lo que queda claro, es que Altman ha ganado un pulso interno, si es lo que lo ha habido.
¿Cómo desarrollas una tecnología que cambia el mundo a un ritmo competitivo mientras mitigas los riesgos que inevitablemente conlleva el ánimo de lucro?
Cabe recordar que OpenAI se fundó con el fin de desarrollar IA que trabajara en el desarrollo y a favor de la humanidad, y que personalidades como Elon Musk salieron ya de la organización al no ver claro que este rumbo se mantuviera.
Altman fue abriendo puertas a la inversión externa, y en cierto modo es uno de los que diseñaron el conflicto que lo destituyó en primera instancia. En teoría, debería haber preservado las intenciones idealistas de los orígenes de la empresa como un laboratorio de investigación, al tiempo que permitía la inversión vertiginosa necesaria para cualquier jugador importante en inteligencia artificial.
Aún así, ese equilibrio es una expresión de una tensión fundamental en la inteligencia artificial: ¿Cómo desarrollas una tecnología que cambia el mundo a un ritmo competitivo mientras mitigas los riesgos que inevitablemente conlleva el ánimo de lucro?
Seguramente, nadie tenga una respuesta perfecta a esa pregunta.