Debate IA

Los debates sobre las IA generativas que necesitamos enfrentar: la remuneración a quienes les nutren y la propiedad intelectual

Numerosos son los debates que, en contraposición con el entusiasmo generalizado, han suscitado las IAs generativas como ChatGPT. Cómo transformarán el mercado laboral, cómo podremos determinar qué ha sido hecho por una IA, etc.

Infinidad de hipótesis pueden ser planteadas sobre el futuro. Más aún si se tiene en cuenta que estos modelos de lenguaje operan como una especie de caja negra difícilmente comprensible para los humanos de a pie. Sin embargo, existen cuestiones relativas a su uso que requieren de una respuesta casi inmediata, pues no son meras hipótesis o auspicios, sino un efecto real que podemos observar en nuestra sociedad.

Sabemos que las IAs generativas nos entienden porque han aprendido de nosotros, pero también trabajan como nosotros porque han aprendido de nuestro trabajo. La última afirmación, aunque parezca obvia, no es baladí. La IA no está haciendo el trabajo que no queremos hacer, como pensaban los investigadores y autores de ciencia ficción, sino el que creíamos que era sólo propio de las personas: lo creativo, como la pintura, música y escritura, o lo cualificado, como la ingeniería o las ciencias de la salud.

Esperábamos que los robots que nos barrieran la cocina y fregaran los platos. Sin embargo, de momento, lo que mejor hacen es dibujar o escribir lo que les pidamos. Y, como es de esperar, hay ciertos artistas y escritores que no están muy contentos con ello. Esos procesos no son fatigantes tareas, sino procesos creativos propios que muestran nuestra una personalidad, originalidad y sentimientos al mundo. El ilustrador Rob Biddulph, por ejemplo, piensa que el arte generado por una IA es «exactamente lo contrario de lo que es el arte». Para él, el arte implica «traducir lo que sientes dentro de ti en un cuadro, escultura o canción». Por eso, afirma, pulsar un botón para que un ente que ni siente ni padece lo haga por ti «no es un proceso creativo».

Más allá de los debates éticos y dialécticos sobre qué es el arte, la realidad es que modelos como DALL-E 2 o MidJourney son muy útiles. Estos permiten generar ilustraciones bajo demanda de forma inmediata y a un coste reducido. Y tanto lo cómodo como lo inmediato siempre se termina abriendo paso. Por lo tanto, el auténtico quid de la cuestión no es si está bien o mal que un robot sepa dibujar. La clave es: ¿a quién pertenece la ilustración?

Ilustración de un cerebro interconectado simulando una inteligencia artificial.

¿De quién es el resultado de las IAs generativas?

Legalmente, la ilustración no puede pertenecer a las IAs generativas porque no son una persona. En el artículo 5.1 del Real Decreto Legislativo 1/1996, del 12 de abril, por el que se aprueba el texto refundido de la Ley de Propiedad Intelectual se indica que se «considera autor a la persona natural que crea alguna obra literaria, artística o científica». Un modelo de IA no es una persona natural. Idéntica legislación encontramos en la UE y en Estados Unidos. Por tanto, sólo adquieren derechos de autoría las obras originales que han sido creadas por una persona natural, aunque una jurídica se pueda beneficiar de ella.

Pero la obra tampoco pertenece a quien ha guiado a la IA, según las últimas sentencias respecto a este tipo de casos. Aquí es importante diferenciar entre las IAs que asisten al autor en su proceso creativo, como un filtro de Photoshop o la ayuda de Autotune, de las herramientas como ChatGPT y DALL-E 2, donde el resultado es imprevisible y no está controlado totalmente por el autor.

Cuando el usuario pide a la IA que le dibuje un perro rojo, sólo sabe que puede esperar ver un perro rojo retratado. Sin embargo, no sabe exactamente qué pose adoptará ni la gama cromática empleada. Cuanto más información le des a la IA, más acorde será la representación con la idea que quieres representar. No obstante, siempre habrá cierta incertidumbre y una clara opacidad en el proceso creativo. Por eso, los tribunales están denegando el registro de coautoría de obras entre persona natural y ente artificial.

Otro factor a considerar es que las IAs generativas no han aprendido a escribir o pintar por ciencia infusa. Lo han hecho empleando el trabajo de millones de escritores e ilustradores a los que no siempre se les ha preguntado si deseaban contribuir con sus obras al aprendizaje de la máquina. Y tampoco se les remunera por tal contribución. Si ChatGPT sabe escribir un soneto es porque ha leído miles de ellos en libros y artículos al respecto. Y si DALL-E 2 puede pintar una luna y un gato en el espacio es porque ha aprendido de las ilustraciones que probablemente haya visto en internet.

Legalmente, la inspiración y el aprendizaje no equivale a plagio. Los buenos escritores son ávidos lectores que han bebido de numerosos autores de los que han aprendido el estilo, vocabulario, formas de abordar la narrativa o ideas de personajes y escenarios. El progreso humano parte de avanzar o expandir lo que otros ya han hecho. No obstante, eso no resta legitimidad a las diversas preocupaciones procedentes de esos sectores que durante años han producido un contenido, información y conocimiento que, posteriormente, se ha utilizado para entrenar a inteligencias artificiales.

Logo de la IA generativa de OpenAI

Periodismo, buscadores y nuevos modelos de negocio

Más concreta y directa es la amenaza que supone la proliferación de estas IAs generativas a los medios de comunicación. Si uno le pregunta a ChatGPT de qué periódicos ha aprendido, señalará que lo ha hecho de muchos, pero, en especial, de los más populares. Es capaz de nombrar varios en España y Latinoamerica, pero jamás los cita cuando usa la información publicada para ofrecer una respuesta al usuario. ChatGPT declara que estudia todos ellos para hacerse una idea general del suceso o la noticia y así explicarla, con sus propias palabras tal y como lo haría una persona.

En su variante integrada en Bing, ChatGPT sí menciona brevemente las principales fuentes de las que se ha nutrido el algoritmo para mostrar la respuesta. Pero, ¿qué porcentaje de personas hará click en dichas fuentes si la combinación de Bing y ChatGPT muestra la información requerida de forma estructurada, completa y lo suficientemente satisfactoria? Esa falta de click supone un cambio relevante para los medios de comunicación. Sus ingresos dependen de que los usuarios accedan a su web –y se monetizan mediante suscripción, anuncios o un modelo híbrido–.

Asimismo, una IA puede aprender a través de muchas fuentes que España es una península o que el año tiene 365 días. Sin embargo, si en el futuro adquiere conocimientos en tiempo real de las exclusivas de los periodistas, la división entre copia y aprendizaje se antoja más complicada.

Microsoft, ante esta situación, ha anunciado un plan que pasa por insertar anuncios en Bing, su buscador. La idea es compartir parte de los beneficios generados con los medios de comunicación y las fuentes de las que se nutre su producto. El objetivo final es «crear un ecosistema de colaboración saludable».

Por el momento, no existe una regulación clara al respecto, como se está solicitando desde varios organismos y Gobiernos en la Unión Europea y Estados Unidos. Tampoco está claro qué papel tendrán los medios en un futuro en el que la información es servida por una inteligencia artificial. Lo único que sí está claro es que se avecina una importante transformación. Y, en procesos como este, ámbitos como la filosofía serán determinantes.

RELACIONADOS

GPTs Custom

Cómo hacer GPTs Custom

Hace unos meses, OpenAI presentó una nueva función para ChatGPT, el popular chatbot de la compañía que funciona gracias a GPT-4, su modelo de...