En la ciudad de San Francisco, seis vehículos de Waymo, una de las muchas empresas que busca conseguir la conducción autónoma, se dirigían a su depósito. Todo iba bien hasta que se toparon con un paso cortado por unos conos señalizadores. Los agentes de tráfico habían redirigido a los coches hacia otro lugar. Con tan mala pata para los robotaxis de Google que el desvío obligaba a entrar en la autopista. Los seis coches se quedaron parados en la vía de incorporación y formaron un atasco que bloqueó el acceso al resto de vehículos.
Estos coches de Waymo, una de las empresas de referencia en el objetivo de conseguir la conducción autónoma, tenían prohibido salir a la autopista. Y cumplieron sus reglas programadas a raja tabla ante la desesperación de los conductores y una ración de caos vial. Al volante, cuando una persona se encuentra ante una situación desconocida, reacciona. Así funcionamos los seres humanos. Si nos topamos frente a unas consecuencias imprevistas pensamos una solución —mejor o peor— y la ejecutamos. No ocurre lo mismo con las máquinas.
Todo el historial de pruebas de coches autónomos en los últimos años da fe de ello. En Houston, en el estado de Texas —en Estados Unidos es donde se han probado más extensivamente estos vehículos— tres unidades autopilotadas de Cruise (filial de General Motors) se quedaron varadas ante un semáforo. Bloquearon tres de los cuatro carriles existentes. El semáforo permanecía en rojo tras una fuerte tormenta y los automóviles esperaban una luz verde que estaba lejos de llegar.
Ante este tipo de situaciones, una persona sabe reaccionar. Si lleva cinco minutos —o diez minutos, lo que sea que considere un tiempo prudencial— ante un semáforo, este no cambia a verde y no hay ningún motivo aparente de riesgo, reanudará la marcha con precaución. Más aún si ve que otros conductores hacen lo propio. Y este es otro factor distintivo de una persona: sabe discernir qué conductas ajenas debe imitar. Combinamos nuestra capacidad de razonar con un bagaje social para tomar decisiones que una mayoría de personas consideraría adecuadas.
Los imprevistos: un escollo para conseguir la conducción autónoma
Cuando una situación se sale del marco —amplio, porque así ha sido programado— que maneja un vehículo autónomo, este puede comportarse de forma anómala. Y esto sencillamente quiere decir de una forma en que no se comportaría una persona. Entre los especialistas en robótica, existe una corriente de pensamiento convencida de que las máquinas deben ser conscientes. Quizá no en el sentido en que lo somos los humanos, pero sí conscientes de su entorno.
Con ello se lograría evitar algunos de los problemas que hemos visto anteriormente. Sin embargo, la complejidad técnica que requiere esto es enorme. De ahí que otra parte de la ingeniería apueste por un diseño de tolerancia a fallos. Una manera de evitar que el coche autónomo dé un frenazo en la autopista o acelere descontroladamente debido a un fallo técnico. Pero no se sabe hasta dónde puede llegar este enfoque en la resolución de problemas ajenos al vehículo. Al final, la casuística de incidentes que pueden ocurrir es tan grande que conseguir la conducción autónoma se convierte en una tarea llena de aristas. Lo complicado es encontrar una fórmula para lidiar con todas las potenciales excepciones.
La reacción ante fallos técnicos
Y tampoco hay que pasar por alto la posibilidad de pequeños fallos técnicos. A un sistema de conducción autónoma se le puede preparar para no acelerar ni frenar de forma peligrosa. Pero existen otros problemas que pueden provocar consecuencias indeseables. También en San Francisco, algunos vehículos autónomos de la marca Cruise bloquearon un cruce de calles durante 15 minutos. ¿La causa? Un festival de música saturó las conexiones inalámbricas de la zona y los coches sufrieron un retraso en la señal.
La reacción de estos vehículos y sus algoritmos pensados para la conducción autónoma fue detenerse. Desde luego, parece más seguro que circular sin señal. Pero bloquear una intersección genera un atasco y, llegado el caso, podría impedir el paso a un servicio de emergencia, como una ambulancia o la policía.
Las personas tienen recursos para reaccionar ante un fallo técnico. Si el coche hace un ruido, si se enciende un piloto luminoso, el conductor no detiene el coche sin más. Debe tomar una decisión. Parar a un lado en la autopista o valorar si puede llegar al próximo desvío y así salirse de la carretera principal. Esta dicotomía es menos sencilla de lo que parece para una máquina, que debe tener su propio sistema de detección de fallos y también de autoevaluación, para decidir si la potencial avería es lo suficientemente grave como para echarse a un lado inmediatamente o continuar hasta el próximo desvío.
No solo eso. Si decide seguir hasta el próximo desvío, deberá evaluar constantemente la situación. Si el ruido se intensifica o si el motor pierde fuerza, el coche autónomo debería ser capaz de cambiar su decisión y optar por pararse en la misma cuneta. Son situaciones con una elevada entropía, en la que los sistemas autónomos no se comportan de forma ideal.
De la misma forma, si el coche se para en la autopista, al poco tiempo deberá reevaluar la situación. Quizá se trate de una eventualidad pasajera y al volver a arrancar todo parece ir bien. Tal vez reanudar la marcha en esas condiciones y salir de la carretera principal sea más seguro que permanecer allí parado. Es algo que no se puede calcular con antelación y aquí los algoritmos no son tan robustos.
La capacidad de interpretación humana vs la conducción autónoma
Pero tampoco hace falta que haya situaciones excepcionales. Las personas nos desenvolvemos muy bien en un ámbito vial. Conocemos las señales comunes e, incluso si no nos sabemos una, podríamos deducir su significado. Porque el lenguaje visual de las señales está pensado con vocación universal. Así que hasta los localismos o los carteles ilustrados en el extranjero nos resultan comprensibles.
Las máquinas tienen limitaciones en este aspecto, porque su sentido de la visión no es comparable. Y la conducción autónoma no es una excepción. Su cognición de las ilustraciones, por tanto, es diferente. Y esto es notable con los ataques adversarios. Existen métodos para engañar a un sistema de visión artificial de un vehículo con un cambio apenas visible para el ojo humano. Así, una señal que ponía prohibido ir a 50 km/h podría interpretarse por el algoritmo como una limitación de 90 km/h. Bastaría con cambiar algunos píxeles clave en la imagen que detecta la cámara del vehículo para que la matriz se procese de forma diferente.
De nuevo, estamos ante casos excepcionales. Pero en un ámbito donde la seguridad es prioritaria, las excepciones no pueden desestimarse. Se necesita que todo esté controlado al milímetro para dar luz verde a este tipo de vehículos.