Percibir un objeto únicamente a través de la vista o del tacto puede suponer una limitación a lo que somos capaces de percibir. Estos robots podrían combinar ambos sentidos para compensar la falta de información.
Los seres humanos tenemos una habilidad innata que hasta el momento ha resultado algo inaccesible para los robots. Se trata de la capacidad para integrar los estímulos visuales y táctiles, aprovechando cualquier dato sensorial disponible para completar las distintas acciones de nuestro día a día.
Investigadores de la Universidad de Liverpool han propuesto recientemente un nuevo marco de trabajo a través del cual generar datos sensoriales intermodales. Esto contribuiría a reproducir la información visual y táctil en situaciones en las que una de las dos no es accesible directamente.
Replicar la reacción sensorial de los seres humanos
El Dr. Shan Luo describe este fenómeno perceptual como sinestesia. Ocurre cuando una fuente de percepción no está disponible y ello causa una reacción involuntaria en uno o más del resto de los sentidos. Los seres humanos pueden responder a esta situación interpretando las características asociadas a un sentido en concreto gracias a la información recopilada usando el resto de los sentidos. Sin embargo, las máquinas no pueden ofrecer esta respuesta de manera autónoma. El objetivo de la investigación es desarrollar un mecanismo visual y táctil, capaz de replicar esta reacción sensorial de los humanos.
Si los robots fueran capaces de integrar la percepción visual y la táctil, podrían planear el agarre y las estrategias de manipulación mucho más efectivamente basadas en las características visuales de los objetos con los que trabajan.
Los robots percibirían las propiedades táctiles generales de los objetos antes de agarrarlos empleando la información visual proporcionada por las cámaras. Además, en el caso de agarrar un objeto fuera del campo de visión de la cámara usarían una respuesta de tipo táctil para compensar la falta de información visual disponible.
Integrar la percepción visual y táctil
Este estudio ha sido el punto de partida para que investigadores de la Universidad de Berkeley se hayan aventurado a aplicar los avances en un brazo robótico manejado mediante un sistema de IA. Esto dota al robot de unos sensores de contacto GelSight con la capacidad de recopilar y analizar la información visual y percibir con precisión la identidad de los objetos.
En un futuro, el marco de trabajo propuesto por el Dr. Luo y su equipo podría utilizarse para perfeccionar el agarre y la manipulación de los robots, así como para mejorar las experiencias de compra online.
Este dispositivo todavía no se ha desarrollado, pero permitiría a los usuarios sentir los objetos desde casa, empleando la información de los datos sensoriales intermodales, y ayudaría a tomar decisiones basadas en una información mucho mayor.
Si te interesa el tema, no te pierdas esta entrevista con Chema Alonso, CDO de Telefónica, en El Economista, donde asegura que «La Inteligencia Artificial ha empezado a superar a los seres humanos».