Lorena Fernández y los sesgos en la inteligencia artificial: por qué la tecnología no es neutral

La inteligencia artificial se ha convertido en una herramienta cotidiana que influye en decisiones clave de nuestra vida. Pero, como advierte Lorena Fernández a Mejor Conectados, una iniciativa de Telefónica, existe un riesgo que muchas veces pasa desapercibido: los sesgos en la IA.

Lejos de ser sistemas objetivos, los algoritmos pueden reproducir desigualdades y estereotipos sin que seamos conscientes. Su análisis invita a replantear una idea muy extendida: la tecnología nunca es neutral.

Qué son los sesgos en IA según Lorena Fernández y de dónde vienen

Para Lorena Fernández, hablar de sesgos en inteligencia artificial es hablar de sistemas que generan resultados injustos de forma sistemática. No se trata de errores puntuales, sino de patrones que favorecen a determinados grupos frente a otros. La clave está en entender que los algoritmos no surgen en el vacío: son diseñados por personas y entrenados con datos que reflejan la sociedad en la que vivimos.

En este sentido, Fernández recupera una idea fundamental: los algoritmos son, en el fondo, decisiones humanas traducidas a código. Cada paso del proceso —desde la selección de datos hasta el diseño del modelo— incorpora una visión del mundo. Por eso, cuando la sociedad arrastra desigualdades, la tecnología tiende a replicarlas.

Uno de los conceptos más interesantes que introduce es el de interseccionalidad. Los sesgos no actúan de forma aislada, sino que se combinan. Una persona puede verse afectada simultáneamente por prejuicios de género, edad o procedencia, y el impacto no solo se suma, sino que se multiplica. Fernández lo define como una “bomba digital”, una metáfora que ayuda a entender la complejidad del problema.

Además, identifica tres grandes vías por las que estos sesgos entran en la tecnología: los datos históricos (que contienen prejuicios), las decisiones de diseño (qué variables se priorizan) y, en algunos casos, la propia intencionalidad de quienes desarrollan los sistemas. En todos ellos hay un elemento común: la intervención humana.

Loréna Fernández en el espacio de su entrevista

Cómo afectan los sesgos algorítmicos y por qué necesitamos una IA responsable

Hay que poner el foco en algo esencial: los sesgos de la inteligencia artificial ya forman parte de nuestra vida diaria. No son un problema abstracto, sino una realidad que se manifiesta en múltiples ámbitos. Desde procesos de selección laboral hasta traductores automáticos o sistemas de recomendación, los algoritmos influyen en lo que vemos, en lo que consumimos y en las oportunidades que se nos presentan.

Uno de los ejemplos más ilustrativos es el de los traductores. Cuando tienen que interpretar idiomas sin género gramatical, tienden a asignar roles estereotipados: hombres en profesiones técnicas y mujeres en roles de cuidado. Este tipo de resultados no son casuales, sino el reflejo de los datos con los que han sido entrenados.

Pero más allá del funcionamiento técnico, la experta advierte de un riesgo especialmente preocupante: la confianza ciega en la tecnología. Tendemos a asumir que una decisión automatizada es más objetiva, lo que nos lleva a cuestionarla menos. Este fenómeno, conocido como sesgo de automatización, refuerza el poder de los algoritmos y reduce nuestra capacidad crítica.

Otro punto clave de la entrevista es cómo el diseño de las plataformas digitales condiciona nuestro comportamiento. Elementos como el scroll infinito o la reproducción automática están pensados para mantener nuestra atención el mayor tiempo posible. No son decisiones neutrales, sino estrategias que responden a intereses concretos, generalmente económicos.

Frente a este escenario, Fernández plantea la necesidad de construir una inteligencia artificial responsable. Para ello, destaca la importancia de la diversidad en varios niveles: en los datos, en los equipos que desarrollan la tecnología, en las empresas y en los propios objetivos de los sistemas. Solo así es posible evitar una visión limitada que deje fuera a parte de la sociedad.

En última instancia, su mensaje es claro: la IA no es un ente autónomo que decide por sí mismo. Detrás de cada algoritmo hay personas, decisiones e intereses. Por eso, más que preguntarnos qué hace la tecnología, deberíamos preguntarnos quién la diseña y con qué propósito. Entender esto es el primer paso para exigir sistemas más justos, transparentes y alineados con el bien común.

RELACIONADOS