La Comisión Europea ha presentado un borrador de principios éticos para el uso de inteligencia artificial cuya versión final será lanzada el próximo mes de marzo de 2019.
El debate sobre la robótica y la inteligencia artificial adquiere cada vez más protagonismo desde un punto de vista social dadas sus consecuencias económicas. Por esta razón, se ha comenzado a plantear la ética para una legislación futura sobre la inteligencia artificial.
Las tres leyes de la robótica formuladas en 1942 por el autor de ciencia ficción, Isaac Asimov, pueden considerarse una base ética para el desarrollo actual de máquinas inteligentes: «Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño. Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entrasen en conflicto con la primera ley».
Por tanto, al hablar de inteligencia artificial surgen voces llenas de entusiasmo, así como otras llenas de angustia. De lo que no hay duda es de que esta tecnología es parte del cambio actual de la sociedad.
El primer borrador sobre ética en la inteligencia artificial
La Unión Europea, consciente de este debate, lleva meses trabajando en el desarrollo de una política tecnológica a nivel europeo sobre inteligencia artificial para su regulación. En esta linea, la Comisión Europea ha hecho público el primer borrador en Bruselas de principios éticos para «una inteligencia artificial confiable» centrada en el ser humano.
Un grupo de expertos en inteligencia artificial de la CE (AI HLEG) lleva reuniéndose varios meses para redactar las directrices del uso de esta tecnología basada en principios como la supervisión, el respeto de la privacidad y la transparencia.
El grupo está formado por 52 expertos del mundo académico, empresarial y de la sociedad civil, y juntos han establecido los derechos básicos entre los que recalcan que la inteligencia artificial «debería ser desarrollada, desplegada y utilizada con un propósito ético». Del mismo modo, Andrus Ansip, vicepresidente de la CE, ha señalado que «para que las personas acepten y usen los sistemas basados en inteligencia artificial necesitan confiar en ellos y saber que su privacidad es respetada».
Principios fundamentales
El documento de 37 páginas hace referencia a varios capítulos sobre la inteligencia artificial: en primer lugar, al respeto de los derechos fundamentales, principios y valores; en segundo lugar, a los requisitos necesarios para desarrollar una inteligencia artificial de confianza.
Respecto al primero, tal y como señala el borrador, esta tecnología deberá respetar los derechos humanos y la regulación. Además, debe garantizar que su uso no causará daños involuntarios:
- Principio de beneficencia: «hacer el bien».
- Principio de no maleficencia: “no hacer daño”.
- Principio de autonomía de los seres humanos.
- Principio de justicia.
- Principio de transparencia.
Por otra parte, para lograr que la confianza en la inteligencia artificial son necesarios una serie de requisitos enumerados de esta forma por la Comisión Europea:
- Responsabilidad.
- Gobierno de datos.
- Diseño para todos.
- Gobernanza de la autonomía de la IA. Supervisión humana.
- No discriminación.
- Respeto por la autonomía humana.
- Respeto a la privacidad.
- Robustez tecnológica.
- Seguridad.
- Transparencia.
El documento sobre principios éticos de la IA definitivo se publicará el próximo mes de marzo de 2019. Por otra parte, la Comisión Europea también ha destacado durante la presentación de este borrador su plan para impulsar la adopción de estrategias en los países miembros sobre el uso de esta tecnología. Para ello, ha marcado el objetivo de que gobiernos y empresas inviertan cerca de 20.000 millones de euros anuales para el desarrollo e investigación de IA a partir de 2020.