En DeepMind han creado un instrumento para evaluar la capacidad de razonar de las inteligencias artificiales.
La subsidiaria de Google que se ocupa de la investigación en inteligencia artificial, DeepMind, ha creado una herramienta para medir la capacidad de razonar de este tipo de programas. Pero el objetivo implica algo más. El test que han creado trata de asemejarse a los que tenemos para evaluar el raciocinio de una persona.
Esto quiere decir que la meta de DeepMind es saber cuánto de inteligencia artificial general tiene un algoritmo. Este tipo de inteligencia es la que permite llevar a cabo distintas tareas a un mismo programa, para las que no ha recibido entrenamiento. Es, por tanto, el concepto que permitirá algoritmos polifacéticos, que sirvan para resolver problemas de materias aleatorias.
De esta forma no se necesitarán diferentes programas para diferentes tareas sino que la realización de estas se podrá unificar en una sola inteligencia artificial. Para la robótica también supondría un gran salto hacia delante. Se salvaría así la barrera del software y las limitaciones pasarían a ser sobre todo cuestiones de hardware.
Pero lo cierto es que aún estamos lejos de esta inteligencia artificial. Así lo ha demostrado el test creado en las entrañas de DeepMind. Los especialistas en IA, autores del programa que ganó al mejor jugador de Go del mundo, han elaborado un test basado en factores de abstracción para medir la capacidad de razonar de un software.
La abstracción es uno de los elementos básicos de nuestra capacidad de razonar. Abordar problemas que no tenemos delante y de los que no hemos recibido estímulos requiere extrapolar nuestro conocimiento. Es un paso que nos distingue del resto de animales hasta el punto de que nos hemos llamado a nosotros mismos "el animal racional".
Y a la hora de evaluar el alcance racional de un programa la abstracción es importante. Para ello los investigadores entrenaron a algunos algoritmos en ciertas materias, como determinar la forma de un objeto en una imagen. Después se les pasó un examen preguntándolos sobre las formas que tenían los objetos de otras imágenes. El resultado fue positivo, con una tasa de acierto de en torno al 75%.
El problema vino cuando los investigadores lanzaron la verdadera prueba. Los algoritmos tenían que acertar preguntas sobre la posición de los objetos , en lugar de su forma. Aquí todas las inteligencias artificiales colapsaron y ninguna obtuvo resultados aceptables.
La conclusión es que con entrenamiento las IA pueden lograr lo que sus creadores se propongan. Pero si no se las entrena para esa tarea concreta, el programa no sabrá afrontarla con garantías. Estamos, por tanto, lejos de la inteligencia artificial general , por cierto uno de los objetivos de DeepMind.
Imágenes: ColiN00B, DeepMind