Juramento hipocrático Inteligencia artificial

¿Necesitan los científicos de IA un juramento hipocrático?

Hace no tantos años veíamos películas como IA: Inteligencia Artificial o Minority Report y costaba imaginarse ese futuro tan desarrollado. Hace años que muchos de esos avances tecnológicos -ficciones aparte- han llegado a nuestra realidad. Con ellos, también las preocupaciones. Cada innovación tiene su parte buena y otra que no lo es tanto. Si encima pensamos en conceptos como la rebelión de las máquinas, surgen dudas sobre las luces y las sombras de algunas grandes innovaciones tecnológicas como la inteligencia artificial. 

Vivimos prácticamente rodeados de ella. Hace pocas semanas se lanzó la herramienta Dall-E y miles de personas empezaron a pedir imágenes completamente surrealistas. Más allá de su parte de ocio, la inteligencia artificial se usa desde hace tiempo por gobiernos y sigue siendo ampliamente investigada para poder ampliar su uso en diferentes ámbitos de nuestra vida. 

Las preocupaciones nacen en las mismas personas que defienden las bondades de esta tecnología. Como Elon Musk, fundador de la empresa OpenAI. «Hasta que la gente no vea a los robots matar a personas por la calle, no se entenderán los peligros de la inteligencia artificial”, dijo recientemente. Según su opinión, las autoridades deberían tener una implicación mayor y favorecer una regulación. Este es uno de los posicionamientos a favor de imponer un control sobre los avances de la inteligencia artificial. ¿Dónde están los límites en su investigación e implementación?

La necesidad de un juramento hipocrático para la Inteligencia Artificial

Muchos expertos apuntan a la necesidad de tener un juramento hipocrático para los tecnólogos. Hay varias iniciativas en marcha, como la de la fundación Neurorights, junto con la Universidad de Columbia. El objetivo es proteger los derechos humanos en el ámbito de la neurotecnología por los grandes avances que se han hecho en este sentido. La neurociencia puede ayudar a mejorar el bienestar de muchas personas, pero los datos disponibles plantean desafíos éticos por la posible comercialización de los mismos.

Si esa información se utiliza de forma indebida puede provocar una violación de la vida privada de las personas. “Una solución para abordar esos problemas y establecer unas pautas éticas es desarrollar un juramento profesional que comprometa y tomen sobre su conciencia todos aquellos que trabajan en neurotecnología”, afirma el equipo detrás de la iniciativa.

A pesar de que la idea es que al principio sea voluntario, sí que se plantea como algo más que una declaración de intenciones o una promesa. A pesar de no ser de obligado cumplimiento, un juramento hipocrático siempre ha tenido un impacto cultural y se considera vinculante. 

¿Qué debería llevar un buen juramento?

La base de ese juramento aplicado en el desarrollo e implementación de la inteligencia artificial ya tiene unos principios básicos por los que empezar. Hablamos de los 7 puntos que conforman las directrices éticas: 

-No maleficiencia, que implica que no haya intención de generar daño con la tecnología.

-Beneficiencia, con el fin de un bien común.

-Autonomía, que se basa en que nada se puede realiar sin consentiminto.

-Justicia.

-Dignidad.

-Privacidadnsible e identificable.

-Transparencia.

Identificando riesgos

Varios estudios han mostrado las consecuencias de esta tecnología sin frenos para la sociedad y un posible camino para resolver estos problemas. Reid Blackman, autor de  “Máquinas éticas: su guía concisa para una IA totalmente imparcial, transparente y respetuosa”, es también el autor del artículo “Por qué necesita un comité de ética de la IA” publicado en Harvard Business Review. En el escrito, plantea varias preguntas, como la manera de identificar posibles riesgos éticos en el uso de la inteligencia artificial.

Algunos de ellos ya no son un misterio para la sociedad. La discriminación que se vive en las calles también se vive en el mundo tecnológico. Blackman cita un estudio de Markup en el que se descubrió que los prestamistas eran más propensos a dar créditos hipotecarios a personas blancas que negras en Estados Unidos. Si esos datos históricos se vuelcan en la inteligencia artificial, esta será la base en la que trabajará la tecnología en sus programas que automatizan ciertos procesos. 

La inteligencia artificial ayuda a automatizar muchos procesos que hasta entonces se hacían a mano. Es una de sus virtudes, pero el problema está en los datos con los que se nutre ese sistema. Por eso, el estudio “Por qué necesita un comité de ética de la IA” plantea que se creen comités que puedan frenar este tipo de problemas relacionados con la tecnología. 

La función del comité, apunta Reid Blackman, es, en el caso de las empresas, “identificar de forma sistemática y exhaustiva y ayudar a mitigar los riesgos éticos de los productos de IA que se desarrollan internamente o se adquieren a terceros proveedores”. A pesar de las supuestas virtudes de la solución que se presente, el comité debería comprobar que no plantea éticos graves y, si es así, recomendar cambios o desaconsejar su utilización. Estas evaluaciones deberían ser revisadas para poder confirmar que se respeten unos principios básicos dentro de la herramienta. 

Este mismo control debería tener lugar también para la investigación de la inteligencia artificial. Sobre este tema se ha posicionado hasta el Parlamento Europeo, que realizó un informe en 2017 sobre el Código Ético de Conducta y un borrador de la Guía Ética para la utilización de la inteligencia artificial. Los principales puntos se basan en que esta tecnología debe estar centrada en el ser humano y que se debe prestar atención a los grupos vulnerables, como los menores de edad o las personas con discapacidad. Siempre, por supuesto, respetando los derechos fundamentales y sin restringir las libertades de las personas. 

Las dudas con los comités de ética de la Inteligencia Artificial

Los comités de ética, ya sea para científicos o para empresas que utilizan inteligencia artificial, han sido discutidos en artículos como el de Reid Blackman. Según su punto de vista, este debería de estar formado por diferentes perfiles, como expertos en ética, abogados, estrategas empresariales y tecnólogos. 

Puede ser un juramento hipocrático o un código de ética, pero la mayoría de expertos coinciden en que es necesario controlar los límites de la inteñigencia artificial. Las soluciones de la IA For Good pueden cambiar y están cambiando nuestro mundo para bien, peor la IA For Bad puede eclipsar estos avances. Reid Blackman dijo que esta tecnología es como un tigre de circo: «Los crías como si fueran propios, los entrenas con cuidado, se desempeñan maravillosamente en un programa y luego, un día, te muerden la cabeza». Insiste en que la clave está en entrenar la inteñigencia artificial en los diferentes entornos para identificar los peligros, hacer que sea todavía mejor, y sobre todo, evitar que nos “muerda la cabeza”. 

RELACIONADOS