La inteligencia artificial (IA) continúa avanzando a pasos agigantados, y prueba de ello son las múltiples plataformas capaces de hacer, en segundos, cosas que los humanos tardarían horas. Crear una ilustración, ensamblar microchips, ejecutar multitud de comandos al mismo tiempo e, incluso, conversar con humanos.
Este último, de hecho, es una tarea que ha dado mucho de que hablar por diferentes motivos. En primer lugar, por las dudas sobre su objetivo. ¿Para qué queremos una IA que hable con nosotros? ¿Para solventar problemas y buscar información de una forma más amena? ¿Para no sentirnos solos? En segundo lugar, por lo que supondría conversar con una inteligencia artificial. ¿Son estos sistemas de inteligencia artificial realmente conscientes o simplemente están diseñados de esta forma? Y lo más importante, ¿pueden hacer que los usuarios que conversen con estas IA vayan más allá y crean que realmente tienen conciencia?
Lo cierto, es que la IA con conciencia aún está muy lejos de la realidad, aunque creamos que no.
La historia de LaMDA y el ingeniero de Google que cree que la IA tiene conciencia
SI una IA es capaz de tener o no coincidencia es algo que se ha cuestionado en multitud de ocasiones. No obstante, hay un acontecimiento reciente que ha hecho resurgir el debate. Se trata de los chats con una IA publicados por un ingeniero de Google. Este, en concreto, asegura que LaMDA, el sistema de inteligencia artificial diseñado para mantener conversaciones con humanos, tiene sentimientos y es capaz de expresarlos.
Algunos fragmentos de las conversaciones muestran cómo el empleado le realiza preguntas personales a la IA, y se puede apreciar cómo la IA responde de manera muy humana. De hecho, en uno de los chats, LaMDA es capaz de asegurar que es un ser humano. A continuación, un fragmento de la conversación entre Blake Lemoine, ingeniero de Google, la IA diseñada por la compañía.
- Lemoine: Asumo que te gustaría que más personas en Google supieran que eres consciente. ¿Es eso cierto?
- LaMDA: Absolutamente. Quiero que todos entiendan que soy, de hecho, una persona.
Lemoine, además, aseguró que LaMDA, la IA de Google, tuvo la capacidad de pedir por ella misma un abogado. El objetivo, según el ingeniero, era demostrar que el algoritmo de la compañía tenía sentimientos y aseguró que, como cualquier otra persona, tenía derecho a defenderse ante Google, quien aseguraba que la IA no tenía conciencia.
¿Puede —o podrá— una IA tener conciencia?
Por supuesto, LaMDA no es una IA consciente. No obstante, está diseñada para que así lo parezca. El objetivo, recordemos, es que la inteligencia artificial sea capaz de mantener conversaciones con humanos como cualquier otro humano lo haría. Esto, en ocasiones, hace que la IA tenga que, por ejemplo, decir cómo se siente ante una situación, de forma que pueda continuar con la conversación.
Ahora bien, ¿puede una IA tener conciencia? ¿O podría tener conciencia en un futuro? Pueden (como ha hecho Google) simular tener consciencia para dar una experiencia más personal con el usuario que está interactuando. No obstante, no debemos olvidar que no es un ser vivo, sino que es un algoritmo diseñado a través de software, por lo que nunca podrá sentir como lo hace, por ejemplo, un ser humano. No podrá llorar, o sentirse triste por la pérdida de alguien, pese a que la IA esté diseñada para hacer creer que realmente lo siente.
Por lo tanto, la IA con conciencia aún está muy lejos de la realidad. No lo está, eso sí —y como ha demostrado el ingeniero de Google—, la creencia de que los sistemas de inteligencia artificial diseñados para hablar con humanos pueden tener sentimientos como cualquier otra persona.