Alucinaciones de la inteligencia artificial

Qué son las alucinaciones de la inteligencia artificial

Millones de personas han conocido lo que llamamos inteligencia artificial a través de los chatbots o bots conversacionales como ChatGPT, Gemini o Copilot. Puedes hablar con ellos como si al otro lado hubiera una persona. Dan respuestas que pretenden imitar la manera de escribir o hablar de los humanos. Y, en ocasiones, se producen errores. Para nosotros son errores. Pero para los expertos se trata de alucinaciones de la inteligencia artificial

Una de las confusiones más extendidas alrededor de los bots conversacionales basados en inteligencia artificial es atribuirles un conocimiento infinito. En realidad, la tarea principal de una IA generativa como GPT o Gemini es dar respuestas convincentes a partir de los datos de entrenamiento a que ha sido sometida. Pero, a consecuencia de ese entrenamiento, podemos darle un segundo uso, que es el más útil para nosotros: obtener respuestas a nuestras preguntas.

Así, cuando le preguntamos algo a un chatbot basado en inteligencia artificial y nos da una respuesta errónea, pueden darse varias situaciones. Que la información que procesó para entrenarse esté equivocada, que puede ser. Que no nos dé la información adecuada que le estamos pidiendo. Y un tercer caso, el más sorprendente, que la IA se invente la respuesta. Esta invención se conoce como delirio o confabulación. Son las llamadas alucinaciones de la inteligencia artificial. La consecuencia de que la IA quiera darnos una respuesta lógica pero para ello nos dé información que no sabemos muy bien de dónde ha salido.

Por qué se producen alucinaciones de la IA

Como decía, la misión principal de la IA generativa es dar respuestas escritas o planteadas de manera coherente. De ahí que muchos utilicen ChatGPT y compañía como sustitutos de los buscadores o las enciclopedias. Y, en parte, la idea es buena. Los modelos de IA generativas son capaces de procesar grandes cantidades de información y ofrecérnosla de manera organizada, esquemática, destacada…  

Además, este tipo de inteligencias artificiales se han visto útiles para resolver problemas matemáticos, dar soluciones a problemas planteados o generar contenido que va desde un sencillo comentario en Instagram a un correo electrónico, el resumen de un libro o el código que hace funcionar un programa. 

Las alucinaciones de la inteligencia artificial son errores lógicos

Pero volviendo a la razón de ser inicial de esta tecnología, resulta inevitable que ante determinadas preguntas, obtengamos respuestas erróneas, falsas o incorrectas. Bien redactadas, eso sí. Convincentes. Pero erróneas. Y hay muchos ejemplos. Fechas o lugares incorrectos, nombres de libros o películas inventados en una lista de recomendaciones o explicaciones a temas inventados. Aunque sus creadores intentan resolver estas alucinaciones de la inteligencia artificial mejorando sus modelos de IA, resulta inevitable encontrarlas de vez en cuando.

La IA generativa se basa principalmente en lo que en inteligencia artificial se conoce como modelo de lenguaje grande, por sus siglas en inglés LLM. Eso significa que la IA se entrena con grandes cantidades de textos. Elegir esos contenidos es importante, ya que emplear una fuente llena de errores puede dar pie a que la IA dé respuestas equivocadas. La IA aprende con esa información y, además, aprende a averiguar qué viene después de una palabra o frase. De ahí que, aunque a la IA le parezca lógica una respuesta, en realidad sea incorrecta.

La dificultad de diferenciar errores, sesgos y alucinaciones

Saber que los chatbots basados en IA no son perfectos es importante para tomarnos sus respuestas como lo que son. De la misma manera que debemos hacer una lectura crítica de una noticia o de un artículo académico, lo mismo ocurre cuando pedimos ayuda a ChatGPT o Gemini. En la mayoría de los casos, el resultado será correcto. Pero siempre existe la posibilidad de obtener información errónea

Para evitar las alucinaciones de la IA conviene entrenarla con fuentes fiables

Otra posibilidad es que la información con la que se ha entrenado esa IA contenga prejuicios sociales o sesgos, de manera que el resultado es una respuesta políticamente incorrecta o directamente ofensiva. Algo que, curiosamente, acerca la inteligencia artificial a determinados seres humanos. Pero la idea es que las respuestas que de la IA sean lo más objetivas posibles. De ahí la importancia del entrenamiento de la IA y de alimentarla con contenidos fiables.

Sea como fuere, lo que nosotros entendemos como un error o una respuesta incorrecta o sesgada, puede tener varias causas, como vimos antes. De manera que cuesta saber si el problema está en las alucinaciones de la inteligencia artificial o en que ha empleado información incorrecta para entrenarse. 

Aprendiendo de los errores

Cuando entras en ChatGPT, a través de su página web o de su app móvil, aparece un mensaje diciendo que “ChatGPT puede cometer errores. Considera comprobar la información importante”. Y Gemini dice que “puede mostrar información imprecisa, así que comprueba sus respuestas”. En realidad, es algo que deberíamos tener en mente para todo. Para nosotros mismos, para nuestros compañeros, para los medios de comunicación, para los buscadores de Internet… Obtener información correcta implica buscar, encontrar y, finalmente, comparar. 

Lamentablemente, confiamos en exceso en las herramientas que usamos para buscar algo o informarnos. En la mayoría de las veces, acertamos. Pero, en ocasiones, nos vemos abocados a quedarnos con un dato incorrecto. En la mayoría de las veces, esta búsqueda crítica requiere tiempo que no siempre tenemos.

Preguntándole a ChatGPT, este nos responde: “Como inteligencia artificial, puedo cometer errores, especialmente en situaciones donde la información proporcionada es ambigua o donde no tengo acceso a datos actualizados. Sin embargo, mi objetivo es proporcionar respuestas precisas y útiles en la medida de lo posible. Si encuentras algún error en mis respuestas, siempre puedes corregirme y estaré encantado de aprender y mejorar”.

RELACIONADOS