Los modelos de inteligencia artificial adquieren sesgos de género, de raza o de clase social de forma inadvertida.
Los algoritmos son racistas. Son machistas. Discriminan por nivel adquisitivo, por nacionalidad, por miles de motivos. Es algo que hemos asumido al mismo tiempo que la inteligencia artificial se acomodaba en boca de todos.
Hecha la denuncia, los expertos en inteligencia artificial tratan de solucionar estos sesgos con los que nacen, o que adquieren, sus algoritmos. Pero no es nada fácil. El problema es que los sesgos pasan inadvertidos y, a veces, son tan inherentes a los datos con los que se entrenan los modelos que se hace difícil solventar la cuestión.
Los datos con los que se entrenan los algoritmos han sido acusados de ser los causantes de estas desviaciones. Pero estas también se encuentran en el diseño del sistema. Cuando los responsables deciden qué quieren conseguir con ese modelo de machine learning o deep learning están marcando cómo será el software. El objetivo puede ser tendencioso, en lugar de justo. Podría buscarse el beneficio económico de un negocio, lo que implicaría de primeras una discriminación entre los clientes que gastan más y los que gastan menos. No sería extraño que esto se tradujera en una diferenciación en base al poder adquisitivo, con lo que indirectamente se estaría discriminando por esta causa.
Evidentemente, los datos también pueden tener ser culpables del sesgo de los algoritmos. Pueden no ser representativos del conjunto de la realidad o, sencillamente, reflejar los prejuicios existentes. El mundo dista mucho de ser perfecto, y poco a poco se asumen estas imperfecciones, como primer paso para corregirlas. Pero con esta información imperfecta se entrena algoritmo.
Por ilustrarlo con un ejemplo que ha ocurrido. Los responsables de un departamento de recursos humanos encargan un modelo para ayudar a la contratación de los candidatos más adecuados. Sin embargo, los datos con los que se ha nutrido el algoritmo incluyen decisiones de contratación pasadas en las que a los hombres se les favorecía por encima de las mujeres. La inteligencia artificial no puede sino heredar este sesgo, con el que, probablemente, los responsables de recursos humanos no estén de acuerdo en estos momentos.
Cuando los datos contienen prejuicios es difícil deshacerse de ellos. Hay mejoras más evidentes. Por ejemplo, en el caso del algoritmo de contratación se pueden ignorar los términos que aludan al género incluidos en la justificación de las decisiones que han servido para entrenar al modelo. Pero es muy difícil pulir la información por completo. Es posible que haya otras palabras o formas de expresión que también contribuyan a este sesgo de género y que pasen desapercibidas.
El método de trabajo
Los expertos en inteligencia artificial que construyen los algoritmos invierten una buena cantidad de esfuerzo en crear modelos precisos que den respuestas a un problema. A partir de ahí, es una práctica habitual que si un algoritmo funciona bien se intente aplicar a otra tarea. Aunque esta sea similar, el contexto social a veces cambia. El diseño del primer modelo no tiene en cuenta el nuevo entorno en el que va a trabajar. Por eso, es posible que arrastre asunciones que en su nuevo contexto se conviertan en prejuicios.
Existe asimismo una doble preparación del modelo a la hora de entrenarlo. Lo primero es probarlo y esto se hace con un conjunto de datos. Después se entrena, lo cual se lleva a cabo con otro set de datos. Pero en realidad se trata de un mismo conjunto de información, que se divide para estas dos etapas. La inteligencia artificial no se expone a una gran diversidad y, por tanto, es más vulnerable al sesgo de los algoritmos.
Por último, entramos también en el terreno de lo filosófico. ¿Qué es neutralidad? En realidad es una quimera obtener resultados que sean completamente imparciales en una predicción. Y esto es lo que hacen los modelos de inteligencia artificial: predecir lo desconocido.
Imágenes: comfreak, insspirito