Los científicos comprobaron cómo se desempeñan los chatbots al verificar noticias.
Especialistas del Centro de Periodismo Digital Tow de Columbia Journalism Review analizaron cuán acertadamente las búsquedas con inteligencia artificial determinan las fuentes de las noticias. Los resultados no fueron alentadores: cuando los servicios de IA tratan de encontrar el titular de un artículo, el nombre de la publicación o la fecha de publicación a partir de un fragmento de texto, se equivocan en más del 60% de los casos.
El problema cobra una relevancia especial en medio de la creciente popularidad de estas herramientas. Las autoras del estudio, Claudia Yazvinska y Aishwarya Chandrasekar, descubrieron que uno de cada cuatro estadounidenses ya prefiere buscar información no a través de motores de búsqueda tradicionales como Google o Bing, sino mediante sistemas basados en IA.
En el transcurso del experimento, los especialistas evaluaron ocho servicios capaces de procesar solicitudes de búsqueda en tiempo real. Los diagramas elaborados mostraron claramente la magnitud del problema: Grok 3 se llevó el récord negativo, equivocándose en el 94% de los casos. ChatGPT Search dio respuestas erróneas en el 67% de las consultas (134 de 200). Incluso el líder en precisión —el sistema Perplexity— cometió errores en el 37% de las verificaciones.
La metodología de verificación no dejaba espacio para ambigüedades: los analistas copiaban fragmentos exactos de artículos publicados y pedían a cada sistema identificar la fuente original del material —hallar su titular, la editorial, la fecha de publicación y la dirección web. A lo largo de la investigación se realizaron 1600 pruebas de este tipo, registrando no solo la corrección de las respuestas, sino también el grado de confianza con el que los algoritmos las proporcionaban.
En lugar de reconocer las lagunas en su conocimiento, las máquinas creaban respuestas plausibles pero completamente ficticias, conocidas como confabulaciones. Sin titubear, generaban enlaces inexistentes o inventaban fechas de publicación que parecían convincentes. Todos los programas examinados mostraron este tipo de comportamiento.
Un hecho paradójico: las versiones costosas de los motores de búsqueda resultaron peores que las gratuitas. Por ejemplo, la suscripción a Perplexity Pro por 20 dólares y a Grok 3 por 40 dólares al mes disminuyó drásticamente la fiabilidad de los resultados. A diferencia de las versiones básicas, que reconocen abiertamente su incapacidad para encontrar una respuesta, los servicios premium se esfuerzan por contestar cualquier pregunta, aunque deban echar mano de la imaginación. Los diagramas del informe ilustran claramente que el dinero no garantiza la veracidad de la información.
Otro motivo de inquietud es cómo las IA ignoran las reglas básicas de internet. Se trata del estándar robots.txt, un archivo especial en los sitios web que indica a los rastreadores qué páginas pueden indexarse y cuáles no. Durante muchos años, este protocolo ha sido la principal herramienta de protección del contenido. Sin embargo, los nuevos servicios de IA simplemente lo ignoran. La versión gratuita de Perplexity halló y procesó sin dificultad diez artículos de National Geographic protegidos contra la indexación, a pesar de que esa publicación había prohibido expresamente el acceso de los robots de dicho servicio a su material.
Con frecuencia, los algoritmos dirigen a los lectores no a los artículos originales, sino a sitios agregadores como Yahoo News. Esto sucede incluso con el contenido de publicaciones que han firmado acuerdos oficiales con los desarrolladores de IA. Los expertos señalan que esta práctica priva a los editores de tráfico legítimo y de los ingresos por publicidad.
Más de la mitad de los enlaces ofrecidos por Google Gemini y Grok 3 conducen a páginas inexistentes. En el caso de este último, las cifras son especialmente desalentadoras: de 200 direcciones verificadas, 154 resultaron no funcionar.
Así, los editores se ven atrapados en un verdadero callejón sin salida. Prohibir a los algoritmos la indexación de sus materiales mediante robots.txt implica perder la referencia a la autoría, ya que los programas de todas formas hallarán las publicaciones en otras plataformas. Dar permiso no garantiza que la audiencia llegue al sitio de la fuente original.
Mark Howard, director de operaciones de Time, compartió con los periodistas su opinión sobre las perspectivas de la tecnología de búsqueda. Se muestra bastante optimista: “Peor de lo que están funcionando ahora, estos productos ya no van a funcionar”. Supuestamente, a partir de ahora los motores de búsqueda con IA mejorarán gracias a las grandes inversiones y los esfuerzos de los ingenieros. Al mismo tiempo, Howard criticó a los usuarios ingenuos: “Si alguien cree a estas alturas que los productos gratuitos funcionarán con un cien por cien de precisión, bueno, deberían sentir vergüenza”.
OpenAI y Microsoft recibieron los resultados del estudio, pero prefirieron limitarse a dar respuestas formales. OpenAI solo reiteró su promesa de ayudar a los editores: la empresa citará sus materiales, proporcionará enlaces directos y siempre indicará las fuentes. Microsoft, por su parte, afirmó que cumple con las normas de robots.txt y escucha los deseos de los titulares de derechos de autor.