¿Pueden los robots ser peligrosos? Quijote, un manual ético para robots

Los avances en inteligencia artificial han suscitado temores sobre si los robots podrían actuar con ética o hacer daño a los seres humanos. Así surge este primer manual sobre “uso de humanos” para robots.

Los riesgos tecnológicos de la famosa serie Black Mirror pueden estar más cerca de lo que parece. Si ya has terminado de ver la sexta temporada de Juego de Tronos, te recomiendo embarcarte en esta increíble serie. Los episodios de Black Mirror hacen una crítica social sobre los usos de la tecnología. Ojo, no es una crítica a cómo la tecnología está transformando la sociedad, sino hasta dónde podríamos llegar sin ética tecnológica.

Una solución a los posibles efectos secundarios de la tecnología

La tecnología podría ser la desencadenante de todo. Las consecuencias de un uso incontrolado, en manos de una sociedad cada vez menos crítica, podrían ser nefastas. ¿Dónde están los límites? En este escenario como telón de fondo, crear un manual sobre “uso de humanos” para robots no es ninguna tontería. Un instituto de Tecnología de Georgia ha creado un programa de software de inteligencia artificial para enseñar a los robots a desenvolverse con ética en la sociedad humana.

robot-couple-1087699_960_720

El proyecto denominado Quijote enseña a los robots a través de meras historias, pero, ¿podrían llegar a hacer daño a los seres humanos? La iniciativa incluye datos en el software para crear un agente virtual, en este caso, un personaje de videojuego para insertarlo en diversas historias. Así, cuando el asistente consigue pasar pantallas, gana un punto positivo a través de la acción de los personajes de las historias. Y es que, de este modo, se consigue emular historias con comportamientos sociales adecuados en esta sociedad. Después de todo, son historias basadas en educar, entretener y reflejar el conocimiento cultural y social.

“Durante años, los investigadores han debatido sobre el modo de enseñar a los robots a actuar de maneras que sean apropiadas, no intrusivas y dignas de confianza. Una cuestión importante es cómo explicar conceptos complejos, tales como política, valores o ética a los robots. Los seres humanos son muy buenos en el uso de historias narrativas que dan sentido al mundo y difundirlo entre la gente. Esto se podría hacer algún día para interactuar con los robots”, explicaba Marc Steingberg, Administrador del Programa de Investigación de la US Navy, que está supervisando este proyecto.

¿Y el futuro?

Los abusos de la tecnología por parte del ser humano pueden desencadenar en escenarios complejos. No nos equivoquemos. En un futuro lejano (o quizás no tan lejano), acabaremos viviendo en instalaciones informatizadas y robotizadas. Una iniciativa como Quijote, codificada con patrones de comportamientos aceptables y éticos, es fundamental en una sociedad cada vez más inmersa en tecnología y redes sociales.

Sobre el autor

RELACIONADOS