Uno de los inconvenientes más comunes del uso de chatbots y otros modelos de inteligencia artificial similares, es la dificultad que tenemos los humanos a la hora detectar si, por ejemplo, un artículo se ha creado gracias a una IA o, en cambio, lo ha escrito una persona. OpenAI, por suerte, ha encontrado la solución. La compañía fundada por Elon Musk ha lanzado una herramienta capaz de detectar si un texto se ha generado a través de ChatGPT u otras IAs similares. Afirman, eso sí, que “no es totalmente fiable”.

La nueva herramienta de OpenAI, en concreto, es compatible con hasta 34 modelos de lenguaje que funcionan de manera similar a ChatGPT. Su mecánica es sencilla: el usuario tan solo debe introducir el texto en un clasificador disponible públicamente a través de la web de la compañía. Después, pulsar en el botón Submit, y esperar a que la IA detecte si existe la posibilidad de que ese escrito se haya generado mediante una inteligencia artificial o si, en cambio, es un texto creado por un humano.

El nuevo clasificador de texto de OpenAI, eso sí, no es completamente fiable. La compañía afirma que la herramienta “identifica correctamente el 26 % del texto escrito por IA”. Asegura, además, que el 9 % de las veces da falsos positivos. Es decir, etiqueta de forma incorrecta el texto escrito por humanos y lo clasifica como texto escrito por IA.

La plataforma, no obstante, ofrecerá diferentes resultados para permitir al usuario conocer cuál es el nivel de precisión a la hora de identificar ese texto. Por ejemplo, si la IA no puede saber en su totalidad si el contenido lo ha escrito un modelo como ChatGPT o un humano, mostrará el resultado como poco claro o posible. Si, en cambio, cree que realmente se ha generado mediante una inteligencia artificial, lo etiquetara como “muy improbable”.

La nueva herramienta para detectar si un texto lo ha escrito ChatGPT u otra IA es muy limitada

ChatGPT

La herramienta, además, tiene algunas limitaciones. Solo puede detectar con precisión si un texto lo ha escrito ChatGPT o una inteligencia artificial similar si este tiene, como mínimo, 1.000 palabras y está escrito en inglés. Además, si alguien modifica un texto generado por una IA, el clasificador tendrá dificultades para comprobar si realmente ese contenido está escrito por una inteligencia artificial.

Tampoco puede distinguir textos muy predecibles. Por ejemplo, un listado con los países del mundo ordenados alfabéticamente. O bien, aquellos en los que los resultados son exactamente los mismos, los escriba una IA, o un humano.

En cualquier caso, la nueva herramienta puede ser útil para evitar aquellas afirmaciones falsas en las que aseguran que un texto lo ha escrito un humano, cuando realmente lo ha generado una inteligencia artificial. Esto se aplica, sobre todo, en las aulas. Y es, sin duda, una respuesta a la creciente tendencia de alumnos que utilizan ChatGPT y modelos parecidos para hacer los deberes y otros trabajos. El nuevo clasificador, no obstante, también puede tener “un impacto en periodistas, investigadores de desinformación y otros grupos”, afirma OpenAI.

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: