¿Cuáles son las reglas básicas de la Inteligencia Artificial?

Últimamente se habla mucho de la inteligencia artificial. Uno de los motivos es porque ya es capaz de generar contenido por sí misma. Existen proyectos que permiten crear texto a partir de unas pocas palabras e incluso crear imágenes de manera automática. La inteligencia artificial es el ingrediente imprescindible para los asistentes de voz, los automóviles autónomos, la robótica y muchas otras áreas del conocimiento. Pero, ¿bajo qué reglas opera la IA?

La inteligencia artificial, como cualquier programa de ordenador, tiene unas reglas que definen cómo se comportará. Ahora y en el futuro. Las reglas de una IA influirán en cómo evolucionará esa misma inteligencia mediante machine learning y/o deep learning. Vamos, que depende del programador o creador de la IA decirle qué puede o no hacer. Algo así como las clásicas tres leyes de la robótica de Isaac Asimov que aparecen en muchas de sus novelas y relatos.

Pero aunque las leyes de la robótica eran un estándar en el universo ficticio de Asimov, en el mundo que nos rodea no tenemos unas reglas de la IA estandarizadas. Al menos de momento. En 2017, unos 100 expertos en inteligencia artificial publicaron una carta abierta a la ONU para que se comprometiera a prohibir tecnología basada en IA para crear robots de guerra. Algo que nos parece muy lejano pero en lo que ya se trabaja desde hace años.

Las reglas que demos a la IA influirá en su manera de actuar o evolucionar

Los principios y reglas de la IA, según Google

Google es precisamente una de las empresas que más está invirtiendo en inteligencia artificial. Su buscador nació a partir de un algoritmo que revolucionó la manera de encontrar páginas web. Y con los años ha ido innovando con infinidad de productos y servicios que todos conocemos. Su división de IA tiene una página dedicada a sus principios y a los objetivos o reglas que deben tener las IA creadas en sus instalaciones. O como dice su página, “nosotros creemos que la IA debería…”:

  • Ser beneficiosa para la sociedad.
  • Evitar crear o reforzar prejuicios injustos.
  • Ser desarrollada y probada empleando prácticas seguras.
  • Rendir cuentas a la gente. Una IA debe ser dirigida y controlada por humanos.
  • Incorporar principios de privacidad.
  • Mantener un nivel alto de excelencia científica.
  • Estar disponible para los usos que se ajusten a estos principios.

En resumen, las reglas de la IA, según Google, se centran en beneficiar a la sociedad, no causarle daño alguno (ni físico ni moral) y respetar la seguridad y la privacidad. También incide en el respeto a las leyes internacionales y los derechos humanos. En especial, en lo que a vigilancia invasiva se refiere, un tema en el países como China han avanzado mucho empleando inteligencia artificial amparándose en leyes que en Europa serían inconcebibles.

Las reglas para la IA no están estandarizadas por ahora

Los principios y reglas de una IA responsable, según Microsoft

En 2016, el CEO de Microsoft, Satya Nadella, propuso diez reglas para la IA. Seis para la IA y cuatro propuestas o necesidades para la sociedad futura. Básicamente, se podrían resumir en esta escueta lista, a la que se le pueden añadir matices o explicaciones más a fondo.

  • Debe ayudar a la humanidad y respetar su autonomía.
  • Ha de ser transparente.
  • Debe maximizar la eficacia sin destruir la dignidad de las personas.
  • Ser diseñada para preservar la privacidad de manera inteligente.
  • Debe tener responsabilidad algorítmica.
  • Estar protegida frente a los prejuicios.

Además de estas seis reglas para la IA, la sociedad del futuro necesitará estos cuatro pilares en un mundo en el convivirán humanos e inteligencia artificial: ser empática, invertir en educación, fomentar la creatividad y, finalmente, juicio y responsabilidad.

En la actualidad, Microsoft trabaja en distintos proyectos relacionados con la inteligencia artificial. En su variada documentación disponible en Internet, podemos encontrar los principios o reglas para la IA que propone Microsoft en sus proyectos.

  • Equidad
  • Fiabilidad y seguridad
  • Privacidad
  • Inclusión
  • Transparencia
  • Responsabilidad
Las reglas de la IA en Europa velan por los derechos del ciudadano

La Inteligencia Artificial en la Unión Europea

China y Estados Unidos le llevan a Europa mucha ventaja a nivel de innovación cuando hablamos de áreas tecnológicas como la inteligencia artificial. Lejos de querer quedarse atrás, la Unión Europea quiere ser también un referente en IA. Y previendo la importancia que tendrá la IA en la sociedad del futuro, en 2020, en Parlamento Europeo redactó varias propuestas de Reglamento para regular la inteligencia artificial dentro de las fronteras europeas.

  • Garantizar que la IA es supervisada por el ser humano.
  • Seguridad, transparencia y rendición de cuentas.
  • Que no se base en prejuicios, sesgos o discriminaciones.
  • Responsabilidad social e igualdad de género.
  • Sostenibilidad ambiental.
  • Privacidad y protección de datos.

Europa tiene el doble reto de facilitar a las empresas y a organismos públicos de investigación que realicen proyectos para desarrollar inteligencia artificial y aplicarla en cualquier ámbito posible. Pero al mismo tiempo, debe velar por los derechos de los ciudadanos. En especial en ámbitos tan delicados como la seguridad, la salud o sectores como el transporte, la energía, el sistema judicial o el ámbito militar.

RELACIONADOS

GPTs Custom

Cómo hacer GPTs Custom

Hace unos meses, OpenAI presentó una nueva función para ChatGPT, el popular chatbot de la compañía que funciona gracias a GPT-4, su modelo de...