Un solo vídeo tuyo al azar se convierte en la clave para un control permanente sobre tu voz.
Las tecnologías de inteligencia artificial que permiten clonar voces han alcanzado un nivel asombroso, pero las barreras que protegen contra su uso no autorizado prácticamente no existen. Según un estudio de Consumer Reports, cinco de los seis servicios populares accesibles al público permiten crear una copia de voz sin el consentimiento de su propietario.
Los algoritmos modernos pueden reproducir el timbre, la entonación y la manera de hablar de una persona con solo unos segundos de audio grabado. La magnitud del problema quedó en evidencia durante las primarias demócratas en EE.UU., cuando los votantes recibieron llamadas masivas de un falso "Joe Biden" instándolos a no votar. El organizador del esquema fue multado con 6 millones de dólares, y la Comisión Federal de Comunicaciones de EE.UU. prohibió las llamadas automáticas con voces generadas por IA.
Mientras los reguladores intentan ponerse al día con el rápido avance de la tecnología, un estudio sobre seis de los principales servicios reveló que en cinco de ellos la protección contra la copia no autorizada de voces es prácticamente inexistente. Basta con que el usuario cargue una grabación de audio, por ejemplo, de TikTok o YouTube, y el servicio generará automáticamente una copia artificial de la voz. En la mayoría de los casos, la protección se reduce a una simple confirmación de autorización, que se cumple con solo marcar una casilla.
Plataformas como ElevenLabs, Speechify, PlayHT y Lovo dependen exclusivamente de este paso formal. Resemble AI requiere grabar una frase en tiempo real, pero este obstáculo se puede sortear fácilmente con un archivo de audio pregrabado. El único servicio con una protección relativamente sólida resultó ser Descript, que exige pronunciar una declaración específica de consentimiento, lo que es mucho más difícil de falsificar.
La mayoría de estos servicios pueden utilizarse de forma gratuita o por una tarifa simbólica. Las empresas afirman contar con "mecanismos de protección sólidos", pero la realidad demuestra que sortearlos suele ser extremadamente fácil.
Los expertos señalan que la tecnología de IA vocal tiene múltiples aplicaciones legítimas, como la asistencia a personas con discapacidades o la creación de doblajes. Sin embargo, los riesgos potenciales superan los beneficios: fraude, manipulación de la opinión pública y ataques a la reputación de figuras públicas.
Ya están surgiendo señales preocupantes. La Comisión Federal de Comercio de EE.UU. advierte sobre llamadas fraudulentas en las que los delincuentes se hacen pasar por familiares de la víctima y exigen dinero alegando una emergencia. En la industria musical, ya se han registrado casos de creación de canciones con voces clonadas sin el permiso de los artistas, como ocurrió en 2023 con una canción falsa atribuida a Drake y The Weeknd.
A pesar del creciente número de abusos, la regulación en este ámbito sigue siendo débil. La orden ejecutiva sobre seguridad en IA firmada por Joe Biden en 2023 fue revocada por Donald Trump tras asumir el cargo. En este vacío legal, la industria continúa autorregulándose, pero la eficacia de estas medidas es cuestionable.