IA vs. Medios: por qué y cómo los motores de búsqueda siguen mintiéndonos

IA vs. Medios: por qué y cómo los motores de búsqueda siguen mintiéndonos

Los medios continúan luchando con OpenAI, Google y Microsoft por la verdad en las noticias.

image

Nuevas investigaciones muestran que los motores de búsqueda basados en inteligencia artificial (IA) de empresas como OpenAI, Google y Microsoft pueden inducir a los usuarios a error y difundir desinformación de manera no intencionada. El problema radica en los algoritmos profundos y las deficiencias en el entrenamiento de los modelos.

El gobierno de Nueva Zelanda está desarrollando un proyecto de ley que obligará a las grandes empresas tecnológicas, como Google y Meta, a pagar a los medios de comunicación por utilizar su contenido en sus servicios. Sin embargo, las autoridades han decidido no incluir en este documento cuestiones relacionadas con la IA.

Paul Goldsmith, ministro de Medios y Comunicaciones de Nueva Zelanda, declaró que se introducirán algunas enmiendas en el proyecto de ley, pero no abordarán el impacto de la IA generativa en la búsqueda de noticias. Según él, este tema se considerará por separado en el futuro.

El proyecto de ley otorgará al ministro el derecho de determinar qué organizaciones estarán sujetas a la nueva ley. Es posible que grandes corporaciones como Microsoft y OpenAI entren en esta lista.

La reacción de las empresas de medios ante el desarrollo de la IA en el ámbito de las noticias es ambigua. Por un lado, los chatbots inteligentes, como Google Gemini, Microsoft Copilot y OpenAI ChatGPT, utilizan información de sitios de noticias para responder a las consultas de los usuarios y para entrenar sus modelos. Esto preocupa a muchos editores.

Algunas grandes corporaciones de medios, incluyendo News Corp, Financial Times y la alemana Axel Springer, han decidido colaborar con los desarrolladores de IA y ya han firmado acuerdos legales para el uso de sus materiales. Esto puede ser beneficioso para ambas partes, ya que las empresas de IA necesitan una gran cantidad de datos y los medios de comunicación buscan promoción.

Otros medios, como The New York Times y Alden Global Capital (el segundo mayor propietario de periódicos en Estados Unidos), han optado por el camino de la confrontación. Han presentado demandas contra Microsoft y OpenAI, acusándolas de usar ilegalmente artículos de noticias para entrenar a sus asistentes de IA. Alden afirma que estas empresas procesan millones de sus materiales protegidos por derechos de autor sin permiso.

En Nueva Zelanda, el principal editor de noticias Stuff prohibió en 2023 que ChatGPT utilizara sus publicaciones. Como mostró un estudio posterior, tras esta decisión, la visibilidad del contenido de Stuff en los motores de búsqueda disminuyó considerablemente.

El análisis de los resultados de búsqueda en los sistemas de Microsoft y Google, así como de las respuestas de sus chatbots Copilot y Gemini, reveló una tendencia alarmante. La diversidad de fuentes en los resultados de búsqueda está disminuyendo en general. Aunque los medios tradicionales aún están presentes en los resultados, la proporción de "otras fuentes" ha aumentado significativamente en el último año.

Preocupa especialmente qué recursos ofrecen los sistemas de IA como noticias actuales. Cada vez más, aparecen enlaces a plataformas no especializadas, pequeños foros sectoriales y comunicados de prensa corporativos.

El problema se agrava porque los chatbots Google Gemini y Microsoft Copilot a menudo proporcionan información desactualizada, no dan enlaces a las fuentes originales y no indican de dónde provienen los datos. Al pedirles que aclaren las fuentes, generalmente evaden una respuesta directa.

Los expertos instan a los usuarios a evaluar críticamente la información obtenida a través de motores de búsqueda y chatbots de IA. Aunque en el futuro estos sistemas pueden ser más precisos, actualmente su fiabilidad genera serias dudas.

Las huellas digitales son tu debilidad, y los hackers lo saben

¡Suscríbete y descubre cómo borrarlas!