Intentar encontrar la verdad en el ruido digital se convierte en un experimento peligroso.
El auge de la IA generativa ha generado una nueva amenaza para la veracidad de la información: hechos distorsionados presentados como verdad. BBC News realizó una investigación que reveló problemas significativos en la precisión de las respuestas de los asistentes de IA más populares.
Durante las pruebas, se formularon 100 preguntas a ChatGPT, Perplexity, Microsoft Copilot y Google Gemini con la solicitud de utilizar materiales de BBC News. Los resultados fueron preocupantes: más de la mitad de las respuestas contenían errores y, en el 20% de los casos, las redes neuronales engañaban a los usuarios agregando imprecisiones fácticas. Más del 10% de las "citas" de los artículos de la BBC fueron alteradas o directamente inexistentes.
Los principales problemas incluyen la falta de diferenciación entre hechos y opiniones, la mezcla de datos archivados con información actual y una tendencia a interpretaciones subjetivas. Esto genera una "mezcla" de información que distorsiona la realidad de los acontecimientos.
Por ejemplo, Perplexity, al responder una pregunta sobre el conflicto en Medio Oriente, afirmó que Irán mostró "moderación", mientras que las acciones de Israel fueron "agresivas", a pesar de que tales formulaciones no aparecían en los materiales originales de la BBC. ChatGPT y Copilot afirmaron erróneamente que Rishi Sunak y Nicola Sturgeon todavía ocupaban sus cargos, mientras que Gemini interpretó incorrectamente las recomendaciones del NHS sobre el vapeo.
Las empresas desarrolladoras de IA reconocen el problema, pero aún no tienen una solución. Apple ya ha suspendido la función de generación de titulares de noticias después de que la BBC detectara errores graves. En un caso, una versión generada por IA afirmaba que las autoridades de Los Ángeles se habían arrestado a sí mismas por saqueo, cuando en realidad se trataba de la detención de ladrones.
La BBC insta a las grandes empresas tecnológicas a colaborar en la búsqueda de soluciones. La industria de los medios, los desarrolladores de IA y los reguladores gubernamentales deben unirse para evitar la erosión de la confianza en la información. En un contexto de inestabilidad global, es fundamental que las personas reciban noticias veraces y no un flujo caótico de datos distorsionados.