Es noticia
Estas son las palabras que podrían delatarte si has usado ChatGPT en el trabajo o la universidad
  1. Tecnología
Mucho cuidado

Estas son las palabras que podrían delatarte si has usado ChatGPT en el trabajo o la universidad

Un estudio llevado a cabo por un bibliotecario escocés lo deja claro. Sin duda, se trata de una buena forma de saber si un texto ha sido escrito con IA generativa o no

Foto: Herramientas como ChatGPT tienden a usar ciertas palabras mucho más de lo necesario (EFE/Reyner Peña)
Herramientas como ChatGPT tienden a usar ciertas palabras mucho más de lo necesario (EFE/Reyner Peña)

Cada vez son más las personas que utilizan la IA en general y ChatGPT en particular en su día a día. Especialmente, a la hora de realizar proyectos académicos o profesionales. El problema está en que, en algunas ocasiones, este tipo de usos no están permitidos. Sin embargo, no existen herramientas 100 % fiables que detecten que un contenido ha sido generado mediante esta tecnología.

Este es el motivo por el que el trabajo de investigación llevado a cabo por Andrew Gray es especialmente interesante. En concreto, se trata de un bibliotecario escocés de 41 años que trabaja en el University College de Londres que se ha enfrentado a la ardua tarea de analizar cinco millones de estudios científicos publicados a lo largo del año 2023. Para su sorpresa, hay palabras que se repiten demasiadas veces.

Su investigación se puede encontrar en la web arXiv.org y tiene por título La “contaminación” de ChatGPT: estimación de la prevalencia de los LLM en la literatura académica. En él llega a la conclusión de que ciertas palabras poco habituales en lengua inglesa han empezado a utilizarse de forma desmesurada. Los mejores ejemplos son los términos que, en español, podrían traducirse como “meticuloso” (59 %) y “meticulosamente” (137 %), así como “encomiable” (83 %) e “intrincado” (117 %).

Casos flagrantes

Según Gray, la abusiva utilización de esos términos refleja el uso de ChatGPT y de otras herramientas generativas de texto potenciadas con IA. Según sus cálculos, el 1 % de los estudios científicos que analizó fueron redactados a partir de ellas. Sin embargo, asegura que, en la mayoría de los casos, solo se ha utilizado con el propósito de pulir el contenido final. Por ejemplo, detectando erratas.

Foto: Un pequeño ratón de laboratorio (Pexels)

En su investigación se destacan tres ejemplos especialmente flagrantes. El primero de ellos es el de un estudio que incluía un dibujo de un ratón con un pene y unos testículos desproporcionadamente grandes (en El Confidencial nos hicimos eco del caso). Los otros dos hacen referencia a evidentes “corta y pega” realizados con ChatGPT.

En uno de ellos se cuela la expresión “por supuesto, aquí tienes una posible introducción para el tema”, mientras que en el otro se puede leer “lo siento, pero no tengo acceso a información en tiempo real ni a datos específicos de pacientes, ya que soy un modelo de lenguaje de IA”. La dejadez y la falta de revisión en ambos casos es digna de sonrojo.

Por su parte, otro estudio llevado a cabo por la Universidad de Stanford también llegó a la misma conclusión. Especialmente, en lo referido a la palabra “meticuloso” y a sus diferentes variables, las cuales aparecían, de media, 35 veces más cuando se utilizaba ChatGPT para la redacción de los artículos.

Cada vez son más las personas que utilizan la IA en general y ChatGPT en particular en su día a día. Especialmente, a la hora de realizar proyectos académicos o profesionales. El problema está en que, en algunas ocasiones, este tipo de usos no están permitidos. Sin embargo, no existen herramientas 100 % fiables que detecten que un contenido ha sido generado mediante esta tecnología.

Inteligencia Artificial
El redactor recomienda