No es ningún secreto que OpenAI, la compañía detrás de ChatGPT, tiene varios productos de inteligencia artificial muy potentes que, por algún motivo u otro, todavía no han lanzado. Prueba de ello es Q-Star, un modelo de lenguaje que se aproxima a la inteligencia artificial general. La compañía todavía no ha presentado por temor a las consecuencias que podrían suponer para la humanidad. Esta otra, eso sí, no es tan potente, pero sí especialmente útil. Es capaz de detectar si un texto ha sido creado por IA con un 99,9 % de precisión.
La herramienta que detecta textos de IA no tiene nombre oficial, pues como asegura el Wall Street Journal, OpenAI todavía no ha considerado lanzarla oficialmente. De hecho, la compañía se niega por conflictos internos. Pero, ¿qué hace realmente?
La herramienta, en realidad, genera una marca de agua invisible e ilocalizable para el ojo humano cada vez que ChatGPT crea un texto, sea cual sea su extensión. De este modo, cualquier herramienta que detectada texto generado por IA puede saber si lo ha escrito una máquina, o una persona normal. Es algo que, precisamente, ya hacen otros modelos de IA. Google, por ejemplo, también ha desarrollado una marca de agua invisible para saber si una imagen ha sido generada por uno de sus modelos de inteligencia artificial o no.
¿Por qué OpenAI no lanza su herramienta de detección de textos escritos por IA?
Probablemente, te estés preguntando: si teniendo en cuenta que otras compañías ya realizan un proceso similar, ¿por qué OpenAI se niega a lanzar una herramienta que detecta textos de IA? Es un debate que la compañía lleva teniendo “aproximadamente dos años”, afirma el citado medio. Tiene una simple respuesta: eliminar la marca de agua es, en realidad, algo posible. Y, de hecho, se puede hacer de una forma muy sencilla, sin necesidad de herramientas de terceros.
Una de estas formas es traduciendo el texto que se ha generado por ChatGPT mediante cualquier herramienta de traducción, y posteriormente, volverlo a traducirlo al idioma original. El usuario estaría copiando el texto generado por el traductor, no por la IA.
Además, OpenAI llegó a realizar un sondeo entre los usuarios de ChatGPT para conocer su opinión sobre esta herramienta que detecta textos de IA. El 69 por ciento de los encuestados consideró que esta tecnología de detección de texto podría dar lugar a acusaciones falsas de uso de IA. Un 30 % dijo que se negarían a usar ChatGPT si alguna vez esta estuviese disponible.
Por último, OpenAI también teme que la herramienta que detecta textos escritos por una IA pueda dañar la calidad del texto generado a través de su modelo de IA. O que este no sea capaz de responder o generar contenido con tanta precisión a como lo hace actualmente.
Tendremos que esperar para ver si finalmente la compañía decide lanzarla con el objetivo de evitar que los usuarios puedan engañar a la hora de compartir un texto