Científicos del MIT crean una IA psicópata llamada Norman

Los investigadores del MIT programan una IA que usa contenido exclusivamente violento y horrible de Reddit.

En 1960, Hitchcock, junto al talento de Anthony Perkins, puso en la pantalla a uno de los asesinos más populares del 7º arte: Norman Bates. Ahora, casi 60 años más tarde, los ecos de ese psicópata vuelven gracias a la tecnología. Científicos como Pinar Yanardag, Manuel Cebrian e Iyad Rahwan del Instituto de Tecnología de Massachusetts han programado un algoritmo de IA al que han expuesto a contenido violento en Reddit.

Según el MIT, «Norman representa un estudio sobre los peligros de la Inteligencia Artificial cuando se utilizan datos sesgados en algoritmos de aprendizaje automático». Con este proyecto han querido demostrar que, dependiendo de cómo sea entrenada, la forma de comportarse de la IA será la que nosotros hayamos querido. Por lo tanto, es necesario tener un cuidado especial con los procesos de aprendizaje.

Psicopatía robótica a través de Rorschach

La idea es que sea un robot capaz de aprender de diferentes IA volcadas a Internet. Para ello, los mecanismos de aprendizaje unifican conceptos de red neuronal, mente descentralizada en la nube y tecnología blockchain.

Tras una exposición prolongada a los rincones más oscuros de Reddit, los científicos probaron las respuestas de Norman ante las imágenes del test de Rorschach, imágenes que a veces se utilizan en psicología para ayudar a determinar las características de la personalidad o el funcionamiento emocional.

En la primera mancha de tinta, una IA programada normalmente ve un grupo de pájaros sentados en la cima de una rama de un árbol. Norman, sin embargo, vio cómo «un hombre era electrocutado». Cuando la IA normal vio un pájaro blanco y negro, Norman vio un hombre empujado a una maquina de amasar.

A su vez, el bot de Twitter de Microsoft, conocido como Tay, fue creado para mantener conversaciones naturales en Twitter. Sin embargo, a escasas horas de nacer tuvo que ser cerrado por difundir mensajes de odio, calumnias raciales e incluso llegar a negar el Holocausto.

Sin embargo, la IA también se puede usar para bien, como cuando MIT logró crear un algoritmo llamado deep empathy, que seleccionaba imágenes de conflictos armados y desastres naturales para generar mayor empatía con el público.

Sobre el autor

RELACIONADOS

GPTs Custom

Cómo hacer GPTs Custom

Hace unos meses, OpenAI presentó una nueva función para ChatGPT, el popular chatbot de la compañía que funciona gracias a GPT-4, su modelo de...