ChatGPT

¿Cómo detectaremos los textos hechos con ChatGPT y similares?

ChatGPT, que también se incluye en el nuevo Bing, es una herramienta extremadamente útil para generar textos fácilmente o realizar consultas rápidas. Esta y otras IAs similares, sin embargo, tienen un inconveniente. Son tan precisas, que en muchas ocasiones es prácticamente imposible saber si un texto está hecho con ChatGPT o si, en cambio, lo ha escrito un ser humano, algo que podría traer consigo contenido engañoso o manipulativo. De hecho, ya hemos visto como muchos profesores se han posicionado en contra de la IA porque lleva a sus alumnos a utilizarla para, entre otras cosas, hacer los deberes. Pero, ¿cómo detectaremos los textos hechos con ChatGPT y similares?

A día de hoy, saber si un texto está hecho con ChatGPT o un modelo de IA similar es una tarea muy complicada. Sobre todo, si tenemos en cuenta el lenguaje tan natural que tienen este tipo de herramientas. Por ejemplo, podríamos detectar los textos hechos con ChatGPT buscando contenido inexacto o incorrecto. Y es que la IA no es perfecta y, en muchas ocasiones, comete errores, sobre todo en aquellos textos relacionados con las finanzas.

El problema es que el ser humano también puede equivocarse a la hora de escribir texto. Por tanto, la forma de saber con certeza si lo ha escrito ChatGPT y similares, es fijarse si en alguna parte del texto hay un mensaje en el que se detalle que ha sido generado mediante una IA. Por ejemplo, algunos científicos han utilizado ChatGPT para sus estudios, y nombran a la inteligencia artificial como autor. Detectar textos hechos con ChatGPT y similares sin autoría, sin embargo, podría ser más sencillo en un futuro.

Existen herramientas capaces de detectar textos hechos con ChatGPT

detectar textos ChatGPT

Compañías que han desarrollado modelos capaces de generar texto, como OpenAI, también están trabajando en IAs que puedan detectar textos hechos con ChatGPT. Son, en realidad, herramientas muy sencillas de usar. El usuario tan solo debe copiar el texto, pegarlo en la plataforma y esperar a que esta detecte si está hecho con ChatGPT, Bard u otro modelo parecido.

Este tipo de herramientas, sin embargo, no son totalmente fiables. Por ejemplo, la que anunció recientemente OpenAI solo identifica correctamente el 26 % del texto escrito por IA. Además, un 9 % de las veces da falsos positivos. Es decir, puede que ese texto lo haya escrito un humano, pero la plataforma lo etiqueta como escrito por una IA.

La herramienta capaz de detectar textos hechos con ChatGPT o similares, eso sí, puede mostrar diferentes resultados dependiendo de la precisión a la hora de comprobar si algo lo ha escrito una IA. Por ejemplo, si no puede distinguir si es algo generado por un humano o por un modelo de inteligencia artificial, etiquetará el resultado como “posible”. Si, en cambio, la plataforma tiene más seguro que ese texto está hecho con ChatGPT o similares, lo etiquetará como “muy improbable”.

Lamentablemente, es muy poco probable que este tipo de herramientas sean capaces de detectar textos hechos con ChatGPT si estos son muy predecibles. Por ejemplo, es extremadamente complicado saber si una lista con los nombres de las provincias de España ordenados alfabéticamente, lo ha escrito una IA o un humano.

A futuro, la única forma de detectarlo será incorporando, de alguna manera, marcas de agua o metadatos, de la misma manera que las imágenes a menudo llevan datos EXIF. Pero hecha la ley, hecha la trampa. No sería una sorpresa que surgieran formas de retirar esos metadatos asociados, de la misma manera que se pueden editar los datos EXIF de una fotografía. Es ahí donde autoridades y principales actores en el campo de la inteligencia artificial tendrán que seguir trabajando en paralelo al avance de los modelos.

RELACIONADOS