Bloomberg — OpenAI, creadora del chatbot viral ChatGPT, presentó una nueva herramienta que tiene como objetivo mostrar si un texto fue escrito por inteligencia artificial.
La herramienta marcará el contenido escrito tanto por ChatGPT como por otros programas de IA, pero la compañía dijo que “aún tiene algunas limitaciones, por lo que debería ser usada para complementar otros métodos”.
Las evaluaciones de la compañía identificaron correctamente texto escrito por AI el 26% de las ocasiones. Y al analizar textos escritos por humanos, en el 9% de los casos indicó erróneamente que habían sido producidos por una IA.
La herramienta, denominada classifier, estará disponible como aplicación web, junto con algunos recursos para profesores, según informó el martes la empresa en un comunicado. La popularidad de ChatGPT ha suscitado preocupación por la autoría, ya que estudiantes y trabajadores utilizan el bot para crear informes y contenidos y hacerlos pasar por suyos. También ha suscitado preocupación por la facilidad con que se generan automáticamente campañas de desinformación.
“Aunque es imposible detectar de forma fiable todo el texto escrito con IA, creemos que unos buenos clasificadores pueden servir de base para mitigar las falsas afirmaciones de que el texto generado con IA ha sido escrito por un humano: por ejemplo, la realización de campañas automatizadas de desinformación, el uso de herramientas de IA para la deshonestidad académica y el posicionamiento de un chatbot de IA como si fuera un humano”, afirma OpenAI en una entrada de blog.
Desde el lanzamiento de ChatGPT en noviembre, los profesores en particular se han esforzado por hacerle frente. Los estudiantes no tardaron en darse cuenta de que la herramienta era capaz de generar trabajos trimestrales y resumir material, aunque en ocasiones insertara errores flagrantes.
A principios de este mes, un estudiante de la Universidad de Princeton llamado Edward Tian lanzó una aplicación llamada GPTZero que, según dijo, programó en Año Nuevo para detectar la escritura con IA. Ethan Mollick, profesor de la Wharton School de la Universidad de Pensilvania, elaboró una política de IA para sus clases, que permite a los estudiantes utilizar ChatGPT siempre que faciliten una descripción de para qué y cómo utilizaron el programa.
Las escuelas públicas de Nueva York han prohibido el uso de ChatGPT, al igual que la Conferencia Internacional sobre Aprendizaje Automático, salvo en determinados casos. La declaración ética de la conferencia señalaba que “las ponencias que incluyan texto generado a partir de un modelo lingüístico a gran escala (LLM) como ChatGPT están prohibidas a menos que este texto producido se presente como parte del análisis experimental de la ponencia”.
Lea más en Bloomberg.com