La gran mentira de las IA basadas en LLM: nunca serán inteligentes

Las IA basadas en LLM, acrónimo de Large Language Model o «modelo de lenguaje de gran tamaño», ya son parte de nuestra vida cotidiana. Los casos más notorios son los de GPT (OpenAI), Gemini (Google), Claude (Anthropic) y Grok (xAI), por solo nombrar los más conocidos. Cada día interactuamos de forma más frecuente con estas tecnologías, y en muchos casos lo hacemos sin darnos cuenta, o sin tomarlo plenamente a conciencia.

Son, justamente, las IA basadas en LLM las que han dado impulso al furor por la inteligencia artificial generativa que transitamos en la actualidad. Los modelos de lenguaje de gran tamaño son cada vez más capaces y potentes, con funciones multimodales que les permiten procesar y crear texto, audio, imagen y vídeo con una rapidez pasmosa. Y las grandes empresas del sector ponen cada vez más fichas en apartados clave como las habilidades en programación y razonamiento.

No obstante, todo esto viene de la mano de una premisa mentirosa: que las IA basadas en LLM son inteligentes. Esto no es así y no va a cambiar en lo inmediato. Sí que es cierto que los modelos de inteligencia artificial evolucionan a un ritmo muy fuerte y esto les permite resolver problemas o instrucciones de una complejidad que va en alza. Eso no es un indicativo de inteligencia en sí mismo, pero sí de que sus capacidades se están expandiendo muchísimo. Es por ello que las empresas están desesperadas por conseguir el cada vez más codiciado poder de cómputo que necesitan para mantener ese ritmo.

Entendiendo las IA basadas en LLM

Entendiendo las IA basadas en LLM
Hanna Barakat & Archival Images of AI + AIxDESIGN / Data Mining 1 / Licenced by CC-BY 4.0

Los LLM son modelos de lenguaje de aprendizaje profundo conformados por redes neuronales que destacan por ser entrenados en enormes cantidades de información. Esos sets de datos pueden estar conformados por material disponible públicamente o por contenidos protegidos por derechos de autor. Es por ello que esto último ha llevado a unas cuantas demandas contra empresas como OpenAI por su uso sin autorización.

Las IA basadas en LLM pueden, de esta manera, comprender las consultas que hacen los usuarios a través de aplicaciones como chatbots, generadores de imágenes y demás soluciones generativas, y ofrecer respuestas acordes. Esto es un pantallazo extremadamente simplificado de lo que pueden brindar este tipo de tecnologías, pero sirve para entender por qué funcionan como funcionan.

Si bien los modelos de inteligencia artificial datan de varias décadas atrás, fue recién a partir de 2017 que comenzó a tomar impulso la arquitectura de aprendizaje profundo conocida como Transformer o transformador, que inventó un grupo de investigadores de Google. Un año más tarde, la firma de Mountain View introdujo el modelo de lenguaje BERT, mientras que OpenAI hizo lo propio con GPT-1. Desde entonces, el desarrollo de las IA basadas en LLM ha crecido de manera exponencial.

El punto de quiebre en esta historia fue, sin dudas, el debut de ChatGPT a finales de 2022. La explosión en popularidad de las herramientas de inteligencia artificial generativa fue inmediata. Esto permitió que los desarrollos avanzaran a un ritmo muchísimo más avanzado que el que se había visto hasta entonces. Algo que se hizo realmente evidente al saltar de una generación de modelo de lenguaje a otro; por ejemplo, de GPT-3 a GPT-4, por solo citar un ejemplo. Asimismo, las IA basadas en LLM se volvieron multimodales, cuando en un principio solo podían procesar un único formato como método de entrada y/o salida (texto a texto, texto a voz, voz a texto, texto a imagen).

El caso LaMDA

En medio del asalto de las herramientas generativas a nuestra vida cotidiana se empezó a hablar cada vez más (y con bastante liviandad) de inteligencia artificial general y sobre si los modelos de lenguaje que existían por entonces podían volverse conscientes. Todo demasiado nuevo, disruptivo y veloz, un cóctel ideal para alimentar la confusión al respecto.

Curiosamente, la primera gran discusión sobre si las IA basadas en LLM eran realmente inteligentes, o incluso conscientes, se dio en 2022, algunos meses antes del lanzamiento de ChatGPT y del inicio del furor por la inteligencia artificial generativa. El caso en cuestión puso a Google bajo los reflectores, luego de que un ingeniero llamado Blake Lemoine revelara las conversaciones que había tenido con un chatbot impulsado por LaMDA, un modelo predecesor de lo que hoy conocemos como Gemini.

La historia generó titulares rimbombantes en todo el mundo, pues el susodicho estaba convencido de que LaMDA había ganado conciencia. Lemoine incluso se encariñó con el bot y lo calificó como «su amigo». Google tuvo que salir a desmentir que su IA fuera consciente, y lo mismo hicieron varios expertos en la materia. Lo interesante de esta situación fue que permitió conocer mucho más sobre cómo operan las IA basadas en LLM, y por qué su funcionamiento no refleja inteligencia real ni conciencia.

El caso de Lemoine y LaMDA puso en el centro de la escena un paper de Margaret Mitchell y Timnit Gebru llamado «Sobre los peligros de los loros estocásticos: ¿Pueden los modelos de lenguaje ser demasiado grandes?». Dichas investigadoras habían sido despedidas por Google tras la publicación de un artículo vinculado con ese trabajo. Si bien el texto es bastante más amplio, incluye apartados que aplican a la temática que aquí abordamos. Por ejemplo, los efectos de que el público le otorgue un sentido a las expresiones o respuestas que producen las IA basadas en LLM.

Las IA basadas en LLM y los loros estocásticos

Entendiendo las IA basadas en LLM
IceMing & Digit / Stochastic Parrots at Work / Licenced by CC-BY 4.0

Las expertas estudiaron una tendencia entre los interlocutores humanos a otorgarle un significado que en realidad no existe a las expresiones de la inteligencia artificial. Básicamente, las personas terminaban dándole un sentido explícito o implícito a las respuestas que otorgaban las IA, basándose en sus propios sesgos o emociones. Pero nada de eso estaba presente en realidad. En otro fragmento agregaban:

«El texto generado por un LM [modelo de lenguaje] no se basa en la intención comunicativa, ningún modelo del mundo o ningún modelo del estado mental del lector. No puede haber estado, porque los datos de entrenamiento nunca incluyeron compartir pensamientos con un oyente, ni la máquina tiene la capacidad de hacerlo. Esto puede parecer contrario a la intuición dadas las cualidades cada vez más fluidas del texto generado automáticamente, pero debemos tener en cuenta el hecho de que nuestra percepción del texto en lenguaje natural, independientemente de cómo se haya generado, está mediada por nuestra propia competencia lingüística y nuestra predisposición a interpretar los actos comunicativos como portadores de significado e intención coherentes, lo hagan o no.

[…] Un LM es un sistema para unir al azar secuencias de formas lingüísticas que ha observado en sus vastos datos de entrenamiento, de acuerdo con información probabilística sobre cómo se combinan, pero sin ninguna referencia al significado: un loro estocástico».

Es cierto que el texto ya carga algunos años y que la tecnología ha evolucionado bastante. No obstante, queda claro que el concepto todavía vale para las IA basadas en LLM. Por lo que atribuirle sentido a la respuesta de una inteligencia artificial no equivale ni a conciencia, ni a inteligencia real.

El acceso al conocimiento mundial en tiempo real

Jamillah Knowles & Digit / Pink Office / Licenced by CC-BY 4.0

El funcionamiento de las IA basadas en LLM se ha basado históricamente en tokens y ventanas de contexto. Los modelos de lenguaje enfocados en la generación de texto generan frases o párrafos a partir de un sistema de predicción y de tokens con un puntaje según el porcentaje de probabilidad de que sea la opción correcta al generar una respuesta coherente a la consulta que hace un usuario.

Como indicamos al comienzo, las IA basadas en LLM se entrenan en vastísimas cantidades de información. Pero desde hace algún tiempo no dependen únicamente de lo que incluyen esos datasets para brindar una respuesta coherente. Los principales modelos de lenguaje tienen acceso a la web, lo que les permite contar con conocimiento mundial en tiempo real. Esto también ayuda a alimentar esa falsa idea de que la inteligencia artificial cuenta con, justamente, inteligencia genuina.

La evolución de los modelos de lenguaje de gran tamaño, el acceso a la web en tiempo real y la proliferación de las opciones de razonamiento ayudan a que las IA sean más versátiles y capaces de responder preguntas y resolver problemas cada vez más complejos. Sin embargo, no hay que olvidar que la tecnología se encarga de replicar y reproducir información que está en sus datos de entrenamiento o que extrae de Internet de un modo que parece inteligente.

Las IA basadas en LLM todavía están lejos de aprender nuevas habilidades o resolver problemas por su propia cuenta y sin depender de un preentrenamiento. Y si esa teoría les suena familiar, no es por coincidencia. Dicho concepto de autoaprendizaje es el que impulsa la búsqueda de una inteligencia artificial general, que también genera debates bastante acalorados en la actualidad.

RELACIONADOS