Enseñar a razonar a las máquinas

IA: cómo armonizar innovación y derechos humanos según el Foro de Davos

Desde el Foro de Davos reflexionan sobre el futuro papel de la inteligencia artificial y sobre cómo garantizar la convivencia de innovación y derechos humanos.

El Foro Económico Mundial se toma en serio las nuevas tendencias productivas , por muy futuras que puedan parecer. No digamos ya las que han demostrado potencial para impactar en las sociedades y en sus economías.

Una de estas tendencias a las que la entidad le ha prestado atención en los últimos tiempos es la inteligencia artificial. Esta tecnología, una de las más transversales y decisivas para los próximos años o décadas, está en el punto de mira. El Foro de Davos, que suele atender a las últimas tecnologías capaces de remover lso cimientos económicos, pone de relieve la necesidad de reflexionar sobre la IA.

La institución cuenta con un proyecto abierto dedicado a la IA, Global AI Council. Se trata de una herramienta para reflexionar sobre la necesidad de hacer convivir la innovación y los derechos humanos dentro de la inteligencia artificial.

Y es que la automatización de múltiples procesos, unida al acceso de una enorme cantidad de datos, algunos de alta sensibilidad, plantea un escenario ideal para desarrollar productos innovadores. Pero al mismo tiempo es un ejercicio de riesgo para derechos como la privacidad o la libertad de decisión de los consumidores.

El Foro de Davos trata de crear estándares internacionales para la inteligencia artificial. Y en este caso no se trata de tecnicismos tecnológicos. Lo importante aquí es establecer una serie de principios éticos que moderen las actividades de la IA.

Inteligencia artificial en China

Recetas éticas para la IA

La mujer que lidera los esfuerzos en inteligencia artificial y machine learning en el Foro Económico Mundial es Kay Firth-Butterfield, que ofrece algunas recetas sobre cómo aunar derechos humanos e innovación en IA. En primer lugar apuesta por que las empresas cuenten con consejos éticos dedicados a guiar el desarrollo de este tecnología.

No se trata de guiarla solo por la ética sino de que ciertos principios éticos se tengan en cuenta siempre. Microsoft, Google y Facebook ya han creado este tipo de órganos dentro de sus estructuras. Firth-Butterfield cree que más compañías deberían hacerlo y también cree que debería dárseles más poder.

Este tipo de consejos deberían ser imprescindibles para el desarrollo de productos de IA. Igual que lo es un departamento de I+D. A las empresas no les tendría que ser fácil no tomarlos en cuenta o dejarlos de lado. Firth-Butterfield propone crear incluso una figura que se ocupe de este campo. Sería el chief technology ethics officer , que vigilaría cómo se desarrolla y se implementan soluciones IA. El objetivo es impedir que la IA se lleve derechos por delante cuando llegue a los consumidores o usuarios. Para ello otro de los pilares intocables es la transparencia. Las empresas tienen que comunicar lo que hacen y cómo lo hacen.

Imágenes: TheDigitalArtist, NNSA News

Sobre el autor

RELACIONADOS

GPTs Custom

Cómo hacer GPTs Custom

Hace unos meses, OpenAI presentó una nueva función para ChatGPT, el popular chatbot de la compañía que funciona gracias a GPT-4, su modelo de...