La inteligencia artificial es una tecnología que ha llegado para quedarse. Y para integrarse en todas las herramientas, dispositivos y aplicaciones que puedas imaginar. Ya la utilizan científicos, matemáticos, investigadores, programadores y toda clase de profesiones. Incluso el ciudadano de a pie utiliza IA de distintas maneras, sea o no consciente de ello. Así que, a estas alturas, todos estamos obligados a estar familiarizados con los principales conceptos sobre inteligencia artificial. Y así no perdernos ni confundirnos con las noticias que nos llegan sobre IA.
Empecemos por lo obvio. Inteligencia artificial es, en palabras de IBM, “una tecnología que permite a las computadoras y máquinas simular el aprendizaje humano, la comprensión, la resolución de problemas, la toma de decisiones, la creatividad y la autonomía”. A partir de ahí, surgen conceptos como modelos de IA, machine learning, IA generativa, deep learning, modelos de lenguaje grande, algoritmos, chatbots, alucinaciones, procesamiento natural del lenguaje, redes neuronales o prompt. Es probable que te suenen algunos de ellos. En el mejor de los casos, ya los conocerás todos.
Sea cual sea tu caso, tanto si todavía no has tocado nada relacionado con la inteligencia artificial como si estás empezando a seguir guías o tutoriales sobre prompting y ChatGPT, no está de más repasar estos conceptos sobre inteligencia artificial. Te ayudarán a comprender todo cuanto envuelve a esta tecnología y todas sus ramificaciones y derivadas. Ten en cuenta que la IA va más allá de crear imágenes o hacer listas de recomendaciones.
Algoritmos
Empecemos por lo básico. El algoritmo. Hace años que venimos oyendo hablar de algoritmos. Y que son los que se encargan de decidir qué páginas vas a encontrar primero en Google, qué fotos verás antes en Instagram o qué videos se repiten más en TikTok. Un algoritmo es una secuencia de reglas, pasos o instrucciones para resolver un problema o realizar una tarea.
Los algoritmos son fundamentales en la informática. Han hecho posible que los servicios y aplicaciones actuales de Internet sean tan complejos y, en el campo de la inteligencia artificial, resultan también imprescindibles. Ya que definen cómo se comporta la IA.
En inteligencia artificial, un algoritmo “es un conjunto de reglas o procesos utilizados por un sistema de IA para realizar tareas, la mayoría de las veces para descubrir nuevos conocimientos y patrones de datos, o para predecir valores de salida a partir de un conjunto determinado de variables de entrada».
Big Data
Hace unos años, el tema de moda en tecnología era el Big Data. Y sigue siéndolo, aunque ya no es la pieza central del puzle. Pero es uno de los conceptos sobre inteligencia artificial más relevantes. Con el auge de Internet, las empresas se dieron cuenta de que cada día se generaban millones de datos. Y con esos datos se podían predecir hábitos de compra, saber qué preferían los usuarios o qué necesidades debían cubrir. Pero procesar tal cantidad de datos no es fácil.
Del Big Data surgen perfiles profesionales como analista de datos y conceptos como el data analysis, predictive analytics o data mining. La idea detrás de todo esto es que analizar y procesar los datos puede ayudar a obtener respuestas a problemas políticos, científicos, financieros o de salud. Y a predecir situaciones o hábitos de consumo o de comportamiento.
Y puede ser una gran ayuda para desarrollar aplicaciones y sitios web más útiles, avanzar en la domótica y dispositivos conectados, mejorar la calidad de las telecomunicaciones, reducir el consumo energético, aplicar políticas más eficientes en ciudades y demás poblaciones, etc. En el caso que nos ocupa, la gran cantidad de datos que generamos puede servir para entrenar una inteligencia artificial.
Modelos de inteligencia artificial
Otro concepto sobre inteligencia artificial que conviene conocer. Un modelo de inteligencia artificial es “un sistema matemático o computacional diseñado para realizar tareas específicas que requieren inteligencia, como el reconocimiento de patrones, la toma de decisiones, la predicción, o la generación de datos”. Los modelos de IA están formados por los datos empleados para entrenar la propia IA, los algoritmos que la hacen funcionar, los parámetros de aprendizaje en sí mismos y sus correspondientes respuestas o decisiones.
Hay distintos modelos de IA. Supervisados, sin supervisar, de aprendizaje por refuerzo y, los más populares últimamente, los modelos generativos. Se llaman así porque generan contenido “nuevo” como texto, imágenes, videos o música a partir de los datos con los que fueron entrenados. Pongo nuevo entre comillas porque hay quien critica que la IA generativa copia y altera contenidos previos. Y que no crean nada realmente original. Un debate difícil de cerrar por su complejidad.
Así, la IA generativa es la que estamos conociendo en los últimos años a través de empresas como OpenAI, Microsoft, Google, Meta, Amazon o Apple. OpenAI, por ejemplo, cuenta con GPT o DALL-E. Google ha creado modelos de IA como Bard o LaMDA. Y ahora está centrada en Gemini. Meta desarrolla también una IA de nombre LLaMA. Y Apple se encuentra en un proceso de integración de su propia IA en su ecosistema de software y hardware, Apple Intelligence.
Modelos de lenguaje grande
En inglés se conoce como large language model. O por sus siglas LLM. Lo hemos traducido por modelo de lenguaje grande. Y es uno de los conceptos sobre inteligencia artificial imprescindibles para entender como funciona lo que hemos venido a llamar inteligencia artificial. Un modelo de lenguaje grande (LLM) es un modelo de IA que ha sido entrenado con grandes cantidades de texto para que pueda entender el lenguaje y generar texto similar al humano.
IBM define los modelos de lenguaje grande como “modelos básicos entrenados sobre inmensas cantidades de datos, lo que los hace capaces de comprender y generar lenguaje natural y otros tipos de contenido para realizar una amplia variedad de tareas”. Gracias a estos modelos, la IA generativa ha evolucionado tan rápidamente en aspectos como la comprensión del lenguaje natural y el procesamiento del lenguaje natural. El motivo es que, a diferencia de otras estrategias para entrenar IA, resulta más eficiente y menos costoso.
Deep Learning + Machine Learning
Entre los conceptos básicos sobre inteligencia artificial tampoco pueden faltar estos dos palabros del inglés que podemos traducir como aprendizaje profundo y aprendizaje automático. Empecemos por el segundo. El aprendizaje automático (machine learning) es una rama de la inteligencia artificial que permite a las computadoras aprender y mejorar a partir de la experiencia sin ser programadas explícitamente para cada tarea. En lugar de seguir un conjunto de instrucciones, las máquinas usan algoritmos para identificar patrones en los datos y hacer predicciones o tomar decisiones basadas en esos patrones.
Por su parte, el aprendizaje profundo (deep learning) es un subcampo del aprendizaje automático (machine learning) que utiliza redes neuronales artificiales con muchas capas, y llamadas redes neuronales profundas, para modelar y extraer patrones complejos en grandes cantidades de datos. Es la base de muchas aplicaciones avanzadas de inteligencia artificial, como el reconocimiento de voz, la visión por computadora y el procesamiento del lenguaje natural.
Chatbots
Los chatbots o bots conversacionales son también viejos amigos. Existen desde hace décadas. Y aunque los primeros eran muy rudimentarios, poco a poco han ido evolucionando. Con ayuda de los algoritmos y de la IA, hoy los encontramos en páginas web, aplicaciones, teléfonos de ayuda al cliente o al ciudadano… Un chatbot es una aplicación o software diseñado para imitar al ser humano en una conversación que puede ser escrita o por voz.
Los chatbots siempre han sido muy atractivos porque su misión es imitar a otras personas, de manera que en muchas ocasiones logran su propósito y cuesta saber si hay alguien o no al otro lado de la pantalla. Hoy en día, muchos de ellos emplean IA para funcionar. Y, precisamente, han ayudado a dar a conocer la inteligencia artificial entre el gran público.
Te sonarán nombres como ChatGPT (de OpenAI), Copilot (de Microsoft), Gemini (de Google), Meta AI (de Meta, antes Facebook), Grok (de X, antes Twitter), Claude (de Anthropic)… La lista es prácticamente interminable. Y gracias a ellos podemos interactuar con los modelos de IA de manera simple. Haciendo preguntas, dando órdenes, subiendo archivos o fragmentos de texto…
Prompt
El concepto de prompt es también muy popular cuando hablamos de modelos de IA. Y, especialmente, cuando tratamos con chatbots. En realidad, es uno de los conceptos sobre inteligencia artificial más fáciles de entender. Un prompt no es más que una instrucción, pregunta o entrada que se proporciona a la inteligencia artificial para que nos dé una respuesta o ejecute una acción.
Aunque parecería que tratar con un modelo de IA es tan simple como hacer una pregunta, no es así. Hay que tener en cuenta qué quieres obtener, evitar confusiones, qué información utilizar y qué resultado dar, cómo ofrecer ese resultado o en qué formato, etc. Es por ello que existen distintos prompts para un mismo chatbot. Y hay distintas maneras de crear prompts. Vamos, que no es una ciencia exacta.
Alucinaciones
Las alucinaciones son consecuencia de cómo están diseñados los modelos de IA generativa. Su misión es imitar el lenguaje humano. Y aunque también los usamos para obtener Información o responder a preguntas, prima dar una respuesta. La IA no siempre sabe decir que no sabe algo. Así que cuando no sabe dar una respuesta, se la inventa. Estas invenciones se conocen como alucinaciones.
Las alucinaciones de la inteligencia artificial no están pensadas o planeadas. Es una consecuencia imprevista. Lo ideal es que la IA dé respuestas correctas. Pero no siempre es posible porque la pregunta está mal planteada, no la entiende bien, no tiene los datos adecuados o ha obtenido Información de fuentes no fiables. Vamos, que la IA tiene los mismos defectos que nosotros. Los investigadores procuran evitar este fenómeno, pero no es fácil.