El autor de ciencia ficción Isaac Asimov enunció tres leyes de la robótica, que son una base ética para el desarrollo actual de sistemas autónomos.
Uno de los términos tecnológicos de 2017 será 'inteligencia artificial'. El año acaba de empezar pero esto ya puede afirmarse sin mucho temor a errar. Y la manifestación más expresiva de esta tecnología son los robots, que también ocupan el candelero mediático. Ambos campos avanzan rápidamente y sus progresos levantan debates y reflexiones a cada paso. La vieja distopía de la rebelión de las máquinas o la convivencia con estos sistemas son fuente de fantasías y polémica.
A este respecto conviene recordar lo que dicen las tres leyes de la robótica. Fueron enunciadas por Isaac Asimov en uno de sus relatos, Círculo vicioso (publicado en 1942), sencillamente como pilar social para su universo literario. Estas normas se dirigen a los robots que en los relatos y novelas del autor tenían capacidad de obrar por sí mismos.
Es ahora cuando la tecnología ha empezado a desarrollar sistemas con esta cualidad, como los coches o drones autónomos. Con ellos surgen preguntas de carácter legal y ético. ¿Quién tiene la culpa cuando un coche autónomo se estrella? Si conducía por sí mismo, lo lógica invita a mirar hacia el fabricante. En este caso se dotaría a la máquina de responsabilidad , no legal, pero sí operativa.
Una cuestión más espinosa es la protección de las personas. La autonomía de las máquinas debería acompañarse de medidas de seguridad que evitaran el daño a las personas. Esto es un precepto que las tres leyes de la robótica de Asimov contienen. De hecho, la idea era proteger al ser humano. Que los robots, por muy avanzados que estuvieran, no pudieran volverse contra las personas. En realidad esta inquietud nació también en la literatura. 'Frankestein', de Mary Shelly, ya dibujó, en pleno fervor de romanticismo gótico, a la creación que se volvía contra su creador. La primera de las tres leyes de la robótica invalida esta posibilidad.
"Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño"
Es un concepto que aún hoy tiene sentido para los futuros desarrollos en torno a sistemas autónomos. En el caso de un coche, si este conduce sin pasajeros dentro y va a chocar contra otro donde viajan varias personas, ¿debe el primer vehículo echarse a un lado aunque esté circulando correctamente y vaya a sufrir más daños si lo hace? La primera ley de Asimov diría que sí.
"Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª ley"
Por mucho que los coches sean autónomos, si la persona detrás del quiere tomar el mando, lo hará. Igualmente, aunque un dron esté programado para operar por su cuenta, si quien lo vigila decide tomar el control, siempre tiene recursos para hacerlo. Actualmente no se concibe el desarrollo de ningún sistema autónomo sin mecanismos que permitan a las personas manejarlos manualmente.
"Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley"
Evidentemente un sistema autónomo hará todo lo posible para no sufrir daños. Como toda tecnología, está diseñada para que funcione y para que mantenga su funcionamiento. Su duración será mayor o menor dependiendo de la calidad, pero desde luego no acometerá operaciones destinadas a estropearse.
Imágenes: Keoni Cabral, Daniel Dreier