Google: una avalancha de deepfakes nos inundará si no tomamos medidas ahora mismo

Google: una avalancha de deepfakes nos inundará si no tomamos medidas ahora mismo

El gigante tecnológico insta a enfrentar la realidad y centrarse en los problemas actuales.

image

Especialistas de varias divisiones de Google —el laboratorio de inteligencia artificial DeepMind , el centro de análisis Jigsaw y el brazo benéfico Google.org— han presentado resultados alarmantes de un nuevo estudio sobre el impacto de la inteligencia artificial (IA) generativa en la sociedad. El informe, titulado "Abuso de la IA Generativa: taxonomía de tácticas y análisis de datos del mundo real", se basa en el estudio de unos 200 casos de uso indebido de la tecnología, reportados en medios de comunicación y publicaciones científicas desde enero de 2023 hasta marzo de 2024.

A diferencia de las declaraciones rimbombantes de algunos líderes de empresas tecnológicas sobre las "amenazas existenciales" de la inteligencia general artificial (AGI) en el futuro, el estudio de Google se centra en el daño real que la IA generativa ya está causando y que podría empeorar en un futuro cercano.

La conclusión principal del estudio es que, hoy en día, inundar internet con textos, audios, imágenes y videos creados artificialmente es una tarea fácil para cualquier usuario.

Según los autores, la gran mayoría de los casos de abuso de la IA generativa (casi 9 de cada 10 incidentes documentados) están relacionados con la explotación de las capacidades de estos sistemas, y no con ataques directos a los propios modelos. Además, muchas formas de abuso ni siquiera contradicen directamente las reglas de uso de los modelos y no parecen abiertamente maliciosas.

Los investigadores advierten que la accesibilidad de la IA generativa y la realidad de sus resultados permiten crear enormes volúmenes de contenido indistinguible del real. Un peligro particular es el uso de estas tecnologías en el ámbito político —en vísperas de elecciones, los deepfakes se presentan frecuentemente como declaraciones reales de figuras públicas. Por ejemplo, se recuerda el caso de Joe Biden, quien supuestamente llamaba a los votantes para pedirles que no asistieran a las votaciones preliminares.

El flujo de contenido de baja calidad creado por IA puede socavar la confianza de los usuarios en cualquier información en internet. La gente tendrá que dudar constantemente de la autenticidad de lo que ve y lee, lo que llevará a una sobrecarga de información.

Ya se observa el peligroso fenómeno del "dividendo del mentiroso": figuras públicas atrapadas en actos cuestionables se justifican diciendo que los materiales comprometedores fueron creados por inteligencia artificial. Esto traslada la carga de la prueba a los acusadores, complicando y encareciendo el proceso de verificación de hechos.

Sin embargo, los investigadores reconocen las limitaciones de su metodología, basada en el análisis de publicaciones en los medios de comunicación. Según ellos, los periodistas tienden a prestar más atención a los casos sensacionalistas o a eventos que afectan directamente a la opinión pública.

Al mismo tiempo, la magnitud real del problema podría ser significativamente mayor de lo reflejado en el estudio. Muchos casos de uso indebido de la IA permanecen en la sombra, sin atraer la atención del público ni aparecer en las páginas de los periódicos y sitios de noticias.

Una preocupación particular es la creación de imágenes íntimas sin consentimiento (NCII). Aunque este tema se aborda periódicamente en la prensa, la verdadera magnitud del fenómeno sigue subestimada. Las razones radican en la delicadeza del problema y en la enorme cantidad de casos individuales, que son prácticamente imposibles de rastrear y documentar por completo.

Los investigadores citan un ejemplo interesante: un usuario en la plataforma Patreon creó más de 53,000 imágenes indecentes de celebridades sin su consentimiento. Este caso fue descubierto gracias a una investigación periodística, pero es solo la punta del iceberg.

Comunidades similares continúan operando activamente en varios mensajeros, especialmente en Telegram, así como en foros anónimos como 4chan. Así, en enero de 2024 se difundieron en Twitter fotos falsas desnudas de Taylor Swift.

Es notable que en el estudio no se menciona el papel de Google como uno de los mayores desarrolladores y distribuidores de tecnologías de IA generativa. En cambio, los autores hacen un llamado a un enfoque multilateral para abordar el problema, que incluya la cooperación entre políticos, investigadores, líderes de la industria y la sociedad civil.

¿Tu Wi-Fi doméstico es una fortaleza o una casa de cartón?

Descubre cómo construir una muralla impenetrable