La industria de los deepfakes sexuales se ha convertido en un mercado clandestino con facturación multimillonaria.

Hace un par de años, estas cosas parecían el argumento de una película de ciencia ficción oscura, pero hoy ya son la realidad de internet. deepfakes, que permiten «desnudar» a personas en fotos y convertir imágenes en videos explícitos, se están volviendo rápidamente más accesibles, realistas y peligrosos. según los especialistas, la industria de deepfakes sexuales se ha convertido en un mercado negro que gana millones de dólares y destruye vidas de personas reales.
Hoy basta con subir una foto a un sitio especializado para, con unos pocos clics, obtener un video erótico o pornográfico realista. Algunos servicios ofrecen decenas de plantillas de escenas, desde «desnudamiento» hasta argumentos sexuales extremos, y por una pequeña tarifa incluso se puede añadir audio generado por IA. Formalmente, esos sitios afirman que solo se pueden subir imágenes con el consentimiento de la persona, pero no existen mecanismos reales de verificación.
En los últimos años se ha formado todo un ecosistema de sitios, bots y aplicaciones que automatizan la violencia sexualizada digital. No se trata solo de fotos, sino también de videos que se crean a partir de una imagen y que parecen cada vez más verosímiles. Los investigadores señalan que esto ya no es un simple «procesamiento sintético», sino contenido de alto realismo con un amplio conjunto de funciones y escenarios. Esos servicios reciben millones de visitas al mes y generan ingresos estables para sus propietarios.
Los mensajeros juegan un papel aparte en este proceso, donde operan decenas de canales y bots que actualizan regularmente las funciones de generación de deepfakes sexuales. A los usuarios se les ofrecen nuevas poses, escenas, estilos e incluso la posibilidad de describir detalladamente el resultado que desean obtener. Según investigaciones periodísticas, solo en Telegram más de 1,4 millones de cuentas estaban suscritas a servicios similares. Tras las solicitudes de los medios, se eliminaron parte de estas herramientas, pero los expertos aseguran que esto es solo una pequeña parte de toda la infraestructura.
Los especialistas subrayan que muchas grandes plataformas de deepfakes ya han empezado a convertirse en proveedores de infraestructura. Compran competidores, crean APIs y permiten a otros desarrolladores lanzar sus propios servicios sobre sus tecnologías. Esto conduce a una mayor difusión de estas herramientas y hace que el ecosistema sea sostenible y escalable.
Los deepfakes sexuales existen desde 2017, pero antes para crearlos se requerían conocimientos técnicos. El rápido desarrollo de la IA generativa en los últimos 3 años ha cambiado completamente la situación. Ahora, modelos complejos de generación de fotos y videos están disponibles para casi cualquier persona, lo que ha simplificado de forma drástica la creación de contenido íntimo falso y lo ha convertido en algo masivo.
Las principales víctimas de esta tecnología casi siempre son mujeres y niñas. Las imágenes y videos falsos conducen al acoso, la humillación, daños psicológicos y a la sensación de pérdida total de control sobre la propia vida. El contenido deepfake se usa contra políticos, figuras públicas y blogueros, pero con igual frecuencia se aplica para acosar a colegas, conocidos y compañeros de clase, incluso entre adolescentes.
Psicólogos e investigadores señalan que en la base de esto hay motivos diversos. Está el chantaje, el deseo de causar daño, la búsqueda de aprobación en el propio entorno y la simple curiosidad por las posibilidades de la tecnología. Para algunos usuarios, esto se convierte en una forma de sentir poder y control sobre otras personas, lo que hace que el problema sea aún más profundo y peligroso.
Los especialistas observan que la sociedad aún no alcanza el ritmo de desarrollo de estas tecnologías. Las leyes se aprueban con lentitud, la regulación va rezagada y el problema a menudo se subestima. Al mismo tiempo, la industria de los deepfakes sigue creciendo, normalizando el abuso en el entorno digital y convirtiéndolo en un servicio habitual.