Las máquinas han difamado a miles de escritores, pasando por alto la verdadera amenaza.
Con la rápida propagación de la inteligencia artificial, ha surgido un nuevo tipo de servicio en el mercado: los detectores de contenido generado por IA. Estos programas deben distinguir los textos escritos por humanos de los generados por modelos de lenguaje como ChatGPT. Los desarrolladores prometen alta precisión y posicionan sus herramientas como protección contra el plagio y el spam robotizado. Sin embargo, un creciente número de expertos y casos reales cuestionan la fiabilidad de estos detectores.
Por ejemplo, la estadounidense Kimberly Gasuras ha trabajado profesionalmente en el periodismo durante 24 años, ganándose la vida escribiendo contenido para empresas a través de la plataforma de freelancers WritersAccess. Pero a mediados de 2023, sus ingresos cayeron drásticamente, ya que algunos clientes se pasaron a ChatGPT. Poco después, Gasuras recibió un mensaje inesperado.
"Recibí un mensaje que decía que mis trabajos supuestamente habían sido creados por IA, según los resultados del verificador Originality . Quedé sorprendida", relata Gasuras. "Les escribí, demostrando mi inocencia, pero no recibí respuesta. Poco después, fui bloqueada en la plataforma por 'abuso de IA'. ¡Es increíble!"
Un caso similar ocurrió con otro escritor llamado Mark. "Me enviaron los resultados de uno de mis últimos textos, donde el detector evaluó la probabilidad de que fuera generado por IA en un 95%. Esta acusación sonó simplemente absurda después de tres años de colaboración, que comenzó mucho antes de la aparición de ChatGPT". Mark incluso proporcionó borradores con marcas de tiempo para intentar demostrar que había escrito a mano, pero no sirvió de nada. Finalmente, perdió el 90% de sus ingresos.
Las historias de escritores profesionales que pierden su trabajo debido a falsas detecciones de los detectores de IA se están volviendo cada vez más comunes. Y muchos especialistas critican abiertamente la tecnología misma.
"Estas compañías venden soluciones pseudocientíficas", afirma Deborah Weber-Wulff, profesora de la Universidad de Ciencias Aplicadas de Berlín. "Según nuestras investigaciones, los detectores de IA son inexactos, poco fiables y muy fáciles de engañar. Los programas informáticos no pueden resolver problemas sociales; necesitamos buscar otros caminos".
Algunos críticos señalan la excesiva confianza de los desarrolladores, que proclaman la alta eficacia de sus productos. Por ejemplo, los representantes de Originality.AI citan tasas de precisión del 98,8%, pero al mismo tiempo hablan de un 2,8% de falsos positivos. Estas dos cifras claramente se contradicen entre sí.
Las propias compañías reconocen que cifras tan altas solo se pueden alcanzar en condiciones de prueba específicas. Los niveles reales de precisión resultan ser significativamente más bajos. Barcs Juhasz, cofundador de Undetectable AI, afirma: "Según nuestras estimaciones, las promesas de una precisión del 99% simplemente no son realistas. Incluso si suponemos que es verdad, aun así, uno de cada cien resultados será un falso positivo. Y estamos hablando de reputaciones y fuentes de ingresos para las personas".
Además de las cuestiones de precisión, las metodologías de prueba de los detectores de IA han sido objeto de severas críticas. Las empresas son acusadas de falta de transparencia y posibles errores en las muestras de textos con las que se entrenan sus sistemas.
Sin embargo, los desarrolladores siguen insistiendo en la utilidad de sus productos. "Si no hacemos nada, en el futuro, internet corre el riesgo de inundarse con contenido generado por IA: artículos de noticias, publicaciones científicas, textos de marketing", señala Alex Cui, director técnico de GPTZero. "Ni siquiera podrán saber si esta publicación en redes sociales fue escrita por una persona o por una inteligencia artificial".
Sin embargo, incluso ellos reconocen importantes deficiencias en sus desarrollos. "Entendemos perfectamente el dolor de los escritores cuando sus textos, en los que han trabajado arduamente, son erróneamente identificados como generados por IA", dice Jonathan Gillham, director general de Originality.AI. "Nuestra herramienta fue concebida para ayudar a los autores, pero a veces realmente funciona en contra".
Los desarrolladores también aluden a las exigencias de los gigantes de búsqueda, como Google , que supuestamente han endurecido su postura respecto a los sitios con contenido generado por IA. Sin embargo, Google misma desmiente esta información, afirmando que no ha introducido prohibiciones sobre textos de IA como tales: "Solo combatimos el contenido de baja calidad creado en masa con el fin de manipular los resultados de búsqueda. Pero el simple hecho de usar IA no es una violación".
Actualmente, las plataformas de freelancers bloquean cada vez más a los autores debido a falsas acusaciones de uso de IA, como le sucedió a Kimberly Gasuras.
En el ámbito académico, la situación es similar: muchas universidades, incluidas Vanderbilt, Northwestern, Michigan y la Universidad de Texas en Austin, ya han prohibido el uso de detectores debido al alto número de errores. Según los profesores, recibían regularmente quejas de estudiantes por acusaciones injustas de plagio de IA.
"En mi opinión, el problema no radica en la inteligencia artificial, sino en los propios detectores", opina el mencionado escritor Mark. "La IA es el futuro, no hay nada que hacer al respecto. Además, veo muchas formas útiles de aplicarla. Y los desarrolladores de detectores afirman abiertamente que sus herramientas distinguen infaliblemente los textos humanos de los creados por IA. Son ellos los que generan una paranoia injustificada en nuestros clientes y nos dejan sin trabajo".
Las empresas desarrolladoras declaran su intención de mejorar sus herramientas. Sin embargo, no todos los expertos creen en la posibilidad de crear un modelo verdaderamente preciso e imparcial.
"Siempre habrá formas de eludir estos sistemas", asegura Barcs Juhasz de Undetectable AI. "El lenguaje humano es extremadamente complejo y multifacético, con innumerables matices y excepciones. Y los detectores escanean los textos en busca de patrones y desviaciones de una supuesta 'norma'. Pero, ¿qué pasa si mi norma de escritura difiere de aquella en la que se entrenó el modelo? Temo que en cada nuevo giro del desarrollo tecnológico veremos cada vez más falsas acusaciones".
Da la impresión de que en su búsqueda del éxito comercial, los desarrolladores de detectores de IA a veces van demasiado lejos, tomando los deseos por la realidad. Y las principales víctimas son los escritores y autores profesionales, cuyo arduo trabajo puede ser rechazado sin justificación adecuada.