¿Quieres ser Elon Musk en una llamada? En China ya venden un programa que lo permite y ya tiene compradores.

¿Quieres ser Elon Musk en una llamada? En China ya venden un programa que lo permite y ya tiene compradores.

Haotian AI convirtió los deepfakes en una herramienta al servicio de la delincuencia

image

Los estafadores obtuvieron una nueva herramienta que hasta hace poco parecía una escena de una película de ciencia ficción. Durante una videollamada en Zoom, WhatsApp o Microsoft Teams, un atacante puede convertirse literalmente en otra persona en tiempo real. Los periodistas de 404 Media probaron el programa chino Haotian AI y comprobaron que la tecnología ya la utilizan redes criminales vinculadas con centros de estafa en el sudeste asiático.

Durante una demostración, el programa, en segundos, transformaba al interlocutor en otra persona. La inteligencia artificial copiaba la mímica, los movimientos del rostro, la iluminación e incluso mantenía la ilusión cuando la persona se tapaba la cara con las manos o se tocaba las mejillas. En una de las pruebas, un periodista vio su propio rostro sobre el cuerpo de otra persona durante una llamada en Microsoft Teams.

A la izquierda, persona real; a la derecha, deepfake en tiempo real (404 Media)

Haotian AI funciona con plataformas populares de videocomunicación y redes sociales, incluyendo Zoom, WhatsApp, TikTok, Instagram y YouTube. Los creadores del servicio promocionan el sistema como una herramienta para cambiar instantáneamente la apariencia durante las llamadas. En las demostraciones publicadas, el programa convertía a los usuarios en la actriz Gal Gadot, en Elon Musk y en Jackie Chan.

Los desarrolladores venden no solo el propio programa, sino también soporte técnico completo. Ayudan a los compradores a instalar el sistema, configurar la cámara virtual y preparar el modelo facial. Para su funcionamiento se requiere un equipo de juego potente con una tarjeta gráfica Nvidia moderna. Los periodistas averiguaron que empleados de Haotian AI se conectan directamente a los ordenadores de los clientes por acceso remoto y desactivan parte de las funciones de protección de Windows durante la instalación.

El costo del servicio alcanza casi 2000 dólares al año, y la creación de un modelo facial individual cuesta aproximadamente 500 dólares adicionales. El pago se acepta en la criptomoneda Tether a través de la cadena de bloques TRON. Según la empresa Chainalysis, las billeteras de Haotian AI recibieron más de 4 millones de dólares desde 2023. Los analistas vincularon las transacciones del servicio con redes chinas de lavado de dinero y proveedores de herramientas para centros de estafa.

Los especialistas también descubrieron que Haotian AI utiliza componentes de proyectos de código abierto para el reemplazo de rostros. En particular, el programa se apoya en el modelo inswapper, distribuido por la empresa InsightFace. Representantes de InsightFace declararon que la tecnología estaba destinada solo a la investigación y al trabajo científico, y que su uso en esquemas fraudulentos infringe los términos de la licencia.

Durante la investigación, los periodistas obtuvieron capturas de pantalla en las que Haotian AI demostraba el funcionamiento del sistema con la simbología de la policía de Washington. Anteriormente, las autoridades advirtieron que los estafadores ya se hacían pasar por agentes policiales durante videollamadas.

La comprobación mostró que la calidad de la falsificación depende en gran medida de la iluminación, de la forma del rostro y de la posición de las manos. Con ciertos movimientos la imagen se deforma y los dedos pueden "romper" la imagen. A pesar de las limitaciones, la tecnología ya sabe eludir muchos sistemas de detección de deepfakes. Los autores de uno de los estudios informaron que el modelo popular Xception casi siempre confundía los vídeos de Haotian AI con auténticos.

Actualmente Haotian AI está promocionando otro servicio para eludir las verificaciones KYC. Estas comprobaciones las utilizan bancos y plataformas en línea para verificar la identidad de los clientes. La nueva herramienta permite sustituir el rostro durante el vídeo selfie que los usuarios realizan para verificar una cuenta.

Las autoridades estadounidenses ya comenzaron a perseguir a proveedores de tecnologías similares. El Departamento de Justicia de EE. UU. acusó anteriormente al creador del servicio OnlyFake, que ayudaba a generar documentos falsos mediante redes neuronales. La exfiscal Erin West considera que los desarrolladores de sistemas para estafadores también deberían asumir responsabilidad si la investigación demuestra vínculos con esquemas delictivos.

En respuesta a una lista detallada de preguntas de los medios, un representante de Haotian AI simplemente respondió "OK" en chino.