ChatGPT

¿Hasta qué punto podemos confiar en ChatGPT?

Poco tiempo necesitó ChatGPT, una inteligencia artificial (IA) capaz de respondernos en lenguaje natural, para acaparar los focos y convertirse en el tema del momento. Un entusiasmo comparable al que pudieron experimentar los primeros usuarios de Internet en los noventa. O el primer contacto con la programación en las universidades estadounidenses. Pero, aunque lo parezca, la máquina no les está hablando. Sólo calcula qué palabra acompañará a la siguiente en su respuesta. Ni piensa ni padece, aunque es sencillo olvidarse de ello al contemplar su destreza.

Sin embargo, calificar a estos asistentes de simples calculadoras de palabras puede ser igual de contraproducente que otorgar cualidades humanas a una máquina inerte. Conversar con la IA de ChatGPT ofrece utilidades hasta ahora inéditas en el uso de cualquier dispositivo electrónico. Nos resume y desglosa textos al instante. Nos elabora menús diciéndole lo que tenemos en la nevera. Traduce textos. Nos dice qué leyes tenemos que estudiar para aprobar nuestro próximo examen… Lo hace, además, con velocidad y sin titubeos.

ChatGPT también presenta la información de forma ordenada y claramente redactada. Se comporta como un experto en cualquier materia, bajándola a nuestro nivel y explicando todo acorde a nuestros conocimientos. El problema es que no es tal experto; sólo lo parece. Nunca duda ni dice: «Disculpa, no tengo conocimientos sobre este tema». Son máquinas programadas para saber de todo y tener siempre una respuesta. Ése es su propósito: ser una superinteligencia.

ordenador

¿Debemos creer todo lo que dice la IA de ChatGPT?

Estas dotes que tanto fascinan a sus usuarios, sin embargo, suscitan inherentemente riesgos claros y constatables, como la difusión de información falsa o errónea. Puede darse el caso, por ejemplo, de que la información con la que se ha nutrido la IA en cuestión contenga fallos. O que sea incompleta. O, también, que los cálculos matemáticos que realiza para hallar la respuesta solicitada deriven en conclusiones erróneas. Y el usuario final –salvo que sea un experto en la materia– no tiene forma de saber si lo que está leyendo es lo cierto. Numerosos son los artículos que han alertado sobre el tema tanto en los medios generalistas como en las revistas científicas de las Universidades. Y tanto sus desarrolladores como los Gobiernos ya cotejan cómo minimizar estos efectos indeseados.

Otro posible riesgo es que ciertos actores malintencionados utilicen la IA de ChatGPT o similares para producir información falsa, sesgada o errónea con objetivos políticos o lucrativos. Esta tecnología permite hacerlo de forma completamente personalizada y bajo demanda. También permite atender a cada grupo demográfico con el tono y las referencias que habitualmente usaría un experto en la materia. Y, por si fuera poco, es rápida y relativamente barata de utilizar.

Jamás la sociedad se ha enfrentado a algo de tal calibre. La imprenta puso en jaque los cauces informativos, y ya por aquel entonces se utilizó para, entre otras cosas, producir informaciones sesgadas o erróneas a gran escala. Luego llegó internet y las redes sociales, que hicieron cada vez más fácil propagar ideas al resto del mundo sin distinción de su valor o veracidad. Aun así, siempre se requería de una persona con las capacidades adecuadas y el tiempo suficiente como para escribir cada texto. Sin embargo, la IA de ChatGPT elimina esas limitaciones: escribe en cualquier idioma, sabe redactar con diferentes tonos, aprende y mejora sus aptitudes constantemente y, por si fuera poco, lo hace al instante y por un precio irrisorio. 

Sus peligros, no obstante, no solo provienen de que su talento caiga en malas manos. En redes sociales resulta fácil encontrar casos en los que la IA de ChatGPT, según avanza la conversación, enlaza errores que, en ciertos casos, terminan incluso en consejos perjudiciales. Las compañías responsables vigilan minuciosamente que sus IA no ofrezcan opiniones o informaciones sobre temas marcados como sensibles o peligrosos. También advierten explícitamente a los usuarios de no tomar nada como verídico al ser un producto aún en desarrollo. Pero el riesgo está ahí.

No obstante, lo más peligroso es cuando el usuario se topa en Internet con información que parece provenir de una persona, pero es en realidad un texto escrito por ChatGPT o derivados. Dentro del chat con la IA, el usuario sabe en todo momento que está conversando con una inteligencia artificial que puede decir cosas falsas o erróneas. Pero fuera de ese ámbito no existe ningún tipo de marca de agua que certifique que lo que leemos ha sido escrito por una persona o por un robot. Por ejemplo: un vendedor puede generar, hoy mismo y con la IA de ChatGPT, cientos de reviews diferentes que alaben el producto que ha puesto a la venta e inviten al consumidor a realizar una compra aparentemente informada pero, en realidad, basada en la manipulación. 

L. Gordon Crovitz, fundador de NewsGuard, empresa que ofrece la herramienta más popular para calificar la credibilidad de los medios de comunicación online, dice que «esta herramienta es la más poderosa para propagar desinformación que jamás haya habido en Internet». Una conclusión que no es nueva. En 2019, los propios ingenieros de OpenAI, la empresa detrás de la IA de ChatGPT, mostraron en los resultados de su investigación una cierta preocupación porque «sus capacidades podrían reducir los costes de las campañas de desinformación» y facilitar estrategias que promuevan «beneficios económicos, una agenda política particular y/o el deseo de crear caos o confusión» a determinados actores.

¿Cómo minimizar los riesgos sin acabar con la innovación?

Las invenciones, no obstante, no se pueden desinventar. Y, de la misma forma que no dejamos de ir en coche porque podemos sufrir un accidente dentro de él, no sería ni beneficioso ni realista pensar que el enfoque acertado para lidiar con estos peligros potenciales o derivados sea restringir o prohibir el uso de estas herramientas. Los investigadores insisten en los peligros. Y es necesario que así sea. Pero al consumidor le encanta conversar con la IA de ChatGPT, pues le ofrece un valor hasta ahora nunca visto dentro de su vida laboral y personal.

«Viviremos momentos que nos den miedo según avancemos hasta llegar a los sistemas de inteligencia artificial general (los que replican y mejoran por completo las capacidades humanas), pero los beneficios para la humanidad que puede ofrecer son tan asombrosos que merece la pena luchar contra todos los desafíos que se nos van a presentar», dijo Sam Baltman, presidente de OpenAI, en relación a este tema.

Resulta innegable que la IA de ChatGPT puede mejorar la calidad de vida de todas las personas y crear una infraestructura más eficiente, avanzada, equitativa y beneficiosa para todas las organizaciones e individuos del mundo. Contamos ya con multitud de ejemplos: una mejor conservación de los bosques, un diagnóstico más temprano de ciertas enfermedades o el diseño y cálculo de edificios más avanzados. La IA hará posible adentrarnos en problemas que hasta ahora eran inabarcables por la capacidad de cálculo del cerebro humano. Gracias a ella, incluso, quizá podamos desvelar los grandes misterios todavía por resolver del cuerpo humano, del cerebro, del mundo y del cosmos que nos han acompañado a lo largo de toda nuestra historia. ¿Por qué renunciar a esta posibilidad?

Sin embargo, es evidente que, cuanto más capaz sea la IA, también podrá ser más peligrosa, como alertan varias personalidades y expertos. Por eso, las propias compañías llevan años insistiendo a que los Gobiernos se pongan de acuerdo. Les piden que regulen estos avances y creen un marco de jurisdicción único sobre el que avanzar de forma segura. No todas las organizaciones tienen fines filantrópicos ni ninguna de ellas está exenta del error.

ChatGPT, GPT 4
Imagen: Unsplash.

El reto de determinar cuál es la verdad

Las primeras medidas para atajar la difusión de información falsa y propaganda malintencionada es el concienzudo entrenamiento de estos modelos para que no repliquen como cierto cualquier cosa escrita en Internet, que es de dónde adquieren mayormente su conocimiento. El problema es que siempre hay huecos. La línea entre qué es cierto y qué es falso no siempre está clara ni siquiera dentro de una Universidad o una institución pública. Además, lo que hoy pensamos que conocemos a ciencia cierta es probable que sea desmentido en el futuro gracias al avance de nuestra inteligencia colectiva. Son innumerables los ejemplos que disponemos a lo largo de la historia.

Quién controla qué es cierto conlleva diversos peligros y, también, debates filosóficos, morales e incluso democráticos. De momento son compañías privadas asesoradas por expertos en la materia. No obstante, es importante consensuar como sociedad quién lo será en el futuro, qué mecanismos de control se interpondrán, etc.

Por otra parte, regular en exceso lo que pueda o no decir una IA como ChatGPT también supone inconvenientes y limitaciones para una parte de sus usuarios. La máxima de cualquier herramienta es hacer exactamente lo que el usuario quiera. Y la posición de las tecnológicas, en línea con esto, es la de, paulatinamente, ir ofreciendo a los usuarios cada vez menos restricciones en su uso dentro de los límites que la sociedad pueda determinar como aceptables.

Para OpenAI, como detallan en su blog, es importante el pluralismo, la libertad y permitir que nuestra propia moral evolucione con el transcurso del tiempo. Tal y como lo han hecho nuestras sociedades en el pasado, por muy numerosos que sean los desafíos que estas herramientas nos presentan actualmente. Pero, nuevamente, es la sociedad la que debe llegar a un consenso. Una conversación en la que se involucren Gobiernos, empresas y ciudadanos y en la que se determinen qué límites interponer.

Las medidas que están en marcha

¿Cómo hacerlo exactamente? Citar de dónde saca la información herramientas como la IA de ChatGPT sería un primer paso de utilidad para que el usuario pueda reconocer su veracidad. Es algo que ya hace en parte el buscador Bing. No obstante, podría llevarse más allá –por ejemplo, etiquetando cada resultado en función de si la información viene de una ley, un informe, un estudio universitario o un artículo periodístico–.

En España, la Estrategia Nacional de Inteligencia Artificial, que es uno de los ejes de la Agenda España Digital 2026​, tiene como principal objetivo proporcionar un marco de referencia para el desarrollo de una IA inclusiva, sostenible y centrada en la ciudadanía. Uno de sus puntos es el establecimiento de marcos regulatorios que delimiten y guíen el diseño de la IA, de forma que las aplicaciones resultantes respeten los derechos de la ciudadanía. Empresas como Telefónica ya cuentan con planes de actuación en el desarrollo de asistentes artificiales. Estos se enfocan en la no discriminación y la transparencia. Es decir: hacer saber al usuario que está hablando con una IA y poner en conocimiento de qué datos aprende y bajo qué propósito.

En paralelo, han aparecido herramientas para detectar si el contenido está escrito por la IA de ChatGPT. No obstante, como ocurre en el mundo de la ciberseguridad, el eslabón más débil de la cadena es siempre el error humano. Un actor cuyo comportamiento es impredecible por las compañías. Un ejemplo perfecto se puede encontrar en las redes sociales. En ellas, a pesar de existir fuentes enfocadas en la verificación de datos, los contenidos falsos a menudo se viralizan.

En general, este es un reto que debe involucrar a toda la sociedad. Cómo lidiamos con los peligros de la inteligencia artificial dependerá de nuestro propio espíritu crítico como usuarios. Pero también lo hará del consenso entre Gobiernos y empresas que deberán crear protocolos de desarrollo, vigilancia, control y objetivos. Hemos de conocer cómo de peligroso es continuar avanzando en cierta dirección, cuál es su efecto en el presente, cuál podría ser su consecuencia en el futuro y, sobre todo, contar con un marco común para que la sociedad reme en la misma dirección, maximizando los beneficios de esta nueva tecnología y minimizando sus riesgos. De momento, no podemos fiarnos de todo lo que dice IA de ChatGPT. Pero tampoco podemos desechar todo lo que nos dice porque cada vez nos será más útil.

RELACIONADOS

futuro sostenibilidad recommerce

Wayra Sessions: El futuro del Recommerce

La situación es preocupante: solo el 9% de los recursos naturales se reutilizan después de su primer uso. Seguimos dependiendo de esquemas económicos lineales...

Medidas para evitar fraudes bancarios por Internet 

La seguridad en Internet es fundamental para salvaguardar la información personal y la seguridad financiera de los usuarios. Evitar la pérdida de capitales, y...