El furor por la IA generativa ha llevado al florecimiento de los proyectos de código abierto, cuya relevancia es cada vez mayor. Esto se ve especialmente reflejado en la enorme cantidad de iniciativas disponibles en plataformas como Hugging Face y GitHub. Pero no se trata solamente de emprendimientos independientes, pues la inteligencia artificial Open Source se ha ganado la atención de los peces gordos de la industria tecnológica.
Hoy en día no sorprende ver que empresas como Google, Microsoft, Meta o NVIDIA están liberando parte de su tecnología bajo esta modalidad. Y si bien no todas las IA abiertas son de código abierto, cosa que explicaremos más adelante y que recientemente OpenAI volvió a introducir en la conversación, también es una realidad que este enfoque ha permitido a los entusiastas interactuar con desarrollos que de otra manera serían inaccesibles.
Los grandes jugadores del espacio coinciden en que la IA de código abierto es crucial para evolucionar la tecnología mejor y más rápido. Muchos de los proyectos libres buscan optimizar el funcionamiento de los modelos de lenguaje para que su ejecución sea más económica y se pueda concretar en hardware de uso doméstico o comercial, sin requerir de grandes infraestructuras.
Otro punto fundamental es que las tecnologías abiertas en el campo de la inteligencia artificial que provienen de grandes empresas son el punto de partida para otros proyectos. Desde iniciativas gubernamentales hasta proyectos científicos que de otra manera probablemente no podrían siquiera iniciarse.
Claro que la proliferación de las IA de código abierto también ha dado espacio para la polémica. No solo por la discusión respecto de si algunos proyectos son Open Source o no, sino porque ciertos lanzamientos han puesto en tela de juicio las inversiones multimillonarias que se han realizado en el sector en los últimos años. El caso de DeepSeek a principios de este año fue de los más resonados en tal sentido.
¿Qué es una IA de código abierto?

La Open Source Initiative ha publicado una descripción bastante completa sobre qué considera como una inteligencia artificial de código abierto. Un fragmento de la misma estipula lo siguiente:
Una IA de código abierto es un sistema de inteligencia artificial disponible bajo términos y condiciones que otorgan las siguientes libertades:
- Usar el sistema para cualquier propósito sin necesidad de solicitar permiso.
 - Estudiar su funcionamiento e inspeccionar sus componentes.
 - Modificar el sistema para cualquier propósito, incluyendo cambiar su salida.
 - Compartir el sistema para que otros lo usen con o sin modificaciones, para cualquier propósito.
 
La Open Source Initiative también aclara que dichos requisitos deben aplicarse a todos los elementos estructurales de la IA para ser de código abierto. Esto no solamente aplica al código del modelo de lenguaje, sino a sus parámetros, pesos, etc. Allí residen muchas disputas respecto de qué se debe considerar o promocionar como Open Source y qué no.
Lo último se empezó a ver con bastante frecuencia tras la irrupción de los modelos Llama, de Meta. La compañía los publicitaba como herramientas de código abierto, cuando en realidad restringía el uso de la tecnología si se intentaba aplicar a ciertos propósitos o para fines comerciales.
La realidad es que es muy difícil —por no decir imposible— crear una inteligencia artificial que adhiera fielmente a los preceptos del movimiento Open Source y que, a su vez, sea tan capaz y potente como los modelos cerrados. No solo por el rendimiento del desarrollo en sí mismo, sino especialmente por la procedencia de los datos para su entrenamiento e inferencia. Aquí es donde entra en juego la alternativa de los modelos Open Weight.
Open Source vs. Open Weight
Poco tiempo atrás, OpenAI anunció el lanzamiento de gpt-oss, sus primeros modelos abiertos desde GPT-2, que había debutado en 2019. Si bien se ha hablado de estas versiones como IA de código abierto, la realidad es que no es tan así. Al igual que Llama y otros proyectos similares, se trata de modelos Open Weight, no Open Source.
¿Esto qué significa? En términos sencillos, que sus desarrolladores liberan sus pesos (weights) preentrenados —los parámetros que definen su comportamiento—, pero no hacen lo mismo con la arquitectura de la IA en sí misma, ni tampoco con los algoritmos y los datos que se usaron para su entrenamiento.
Lo que esto permite es que investigadores y desarrolladores tengan acceso a una base preestablecida que pueden personalizar a través de fine-tuning, sin tener que iniciar un trabajo desde cero. Esto claramente tiene puntos a favor y en contra, pero la realidad es que sin esa piedra fundamental muchos proyectos que hoy se ofrecen como “de código abierto” no podrían existir, sea por una cuestión de costes elevados como de falta de infraestructura.
El caso DeepSeek y sus efectos en el campo de la IA de código abierto

A principios de este año, las grandes tecnológicas se vieron sacudidas por la irrupción de DeepSeek. Nos referimos a una IA de código abierto con capacidades similares —y en algunos casos superiores, presuntamente— a las de ChatGPT. La novedad era que la compañía china detrás del proyecto supuestamente había utilizado una fracción del poder de cómputo y de la inversión que estaban destinando empresas como OpenAI, Microsoft o Google.
Esto derivó en una importante caída en el valor de las acciones de varias firmas líderes en el desarrollo de tecnologías aplicadas al campo de la inteligencia artificial. El caso más notorio fue el de NVIDIA, que en solo un día perdió casi 600.000 millones de dólares de valoración de mercado.
El desarrollo de DeepSeek supuestamente costó menos de 6 millones de dólares, contra los más de $100 millones que OpenAI destinó para entrenar a GPT-4. Esto desató el pánico ante la posibilidad de que China irrumpiera con modelos baratos y potentes, y que tanto el frenesí inversor que estaba moviendo cantidades monumentales de dinero en Occidente como el desarrollo de hardware de vanguardia dedicado a la IA terminaran en un fiasco.
No obstante, con el correr de los días el asunto dejó de ser tan categórico. En primer lugar, porque aparecieron acusaciones de que DeepSeek se había desarrollado con apoyo directo del Partido Comunista Chino. Pero también, porque Google y OpenAI denunciaron que la IA de código abierto de DeepSeek se había creado, en realidad, a través de un proceso de “destilación”. Esto implica la extracción de los conocimientos de un modelo de lenguaje para transferirlo a otro, infringiendo los términos de las API de estas compañías.
Hoy en día, DeepSeek sigue funcionando y ha lanzado varios modelos con capacidades interesantes, incluso dentro del ámbito del razonamiento. Aunque ya no aparenta ser la amenaza de principios de año. NVIDIA, de hecho, ha superado la tormenta para ubicarse con total comodidad como la tecnológica mejor valorada del mundo. Hoy en día, es la única que cuenta con un marketcap que excede ampliamente los 4 billones de dólares.
La apuesta de las tecnológicas: algunos proyectos para tener en cuenta

Muchas de las IA supuestamente de código abierto no adhieren al pie de la letra a la definición de la Open Source Initiative. Aun así, su naturaleza los hace un punto de partida interesante para tener en cuenta a la hora de explorar diferentes opciones. Estos son algunos de los más destacados:
- Gemma: son las versiones abiertas de los modelos Gemini, de Google. Se han posicionado como una de las alternativas más atractivas, considerando la fuerza de inversión y despliegue de los de Mountain View.
 - Llama: como indicamos previamente, Meta jugó fuerte en el segmento de las herramientas y los modelos abiertos. Es cierto que el proyecto se habría desinflado un poco debido al flojo rendimiento de Llama 4, lo cual habría empujado a Mark Zuckerberg a volcarse por la superinteligencia. Aun así, la empresa parece todavía tener el proyecto en marcha.
 - GR00T-N1: es un modelo de IA fundacional desarrollado por NVIDIA y promocionado como de código abierto. Destaca por estar destinado a su implementación en robots humanoides.
 - Phi-4: un muy interesante proyecto de Microsoft cuyo código y pesos se liberaron en los primeros días de este año.
 - gpt-oss: el regreso de OpenAI a los modelos Open Weight tras varios años de ausencia en el segmento. Están disponibles en dos versiones, una de las cuales se puede ejecutar en un ordenador con solo 16 GB de memoria RAM.
 - Surya: para los amantes de la ciencia y la exploración espacial, esta iniciativa tiene un saber especial. Se trata de una IA de código abierto que han desarrollado IBM y la NASA y que puede predecir tormentas solares. Sin embargo, tanto la arquitectura como la metodología se pueden adaptar a otros ámbitos científicos.
 
Claro que esta es apenas una muestra de los muchos proyectos que hoy están disponibles en la web. Si ingresan en plataformas como Hugging Face podrán navegar por más de 1 millón de modelos de IA, varios de los cuales intentan ajustarse al máximo posible al concepto de código abierto. Lo logren o no, el panorama es verdaderamente interesante.
Si te ha gustado este artículo y quieres recibir más contenido sobre innovación y tecnología directamente en tu correo, suscríbete a nuestra newsletter y mantente siempre actualizado. No somos de los que llenan tu bandeja, solo compartimos los lunes.








