"Desnudar" con un par de clics: Apple y Google facilitan que la IA genere pornografía sin consentimiento

"Desnudar" con un par de clics: Apple y Google facilitan que la IA genere pornografía sin consentimiento

Los ingresos de servicios que crean imágenes íntimas sin consentimiento superan los 122 millones de dólares.

image

Buscar aplicaciones en el teléfono inteligente resultó no ser tan inocuo como parece. Basta escribir un par de palabras – y los algoritmos mismos indican cómo «desvestir» a una persona en una foto mediante redes neuronales. Además, estas sugerencias las ofrecen las principales tiendas de aplicaciones de Apple y Google.

Nueva investigación del Tech Transparency Project mostró que, a pesar de prohibiciones formales, ambas tiendas no solo permiten estos servicios, sino que también dirigen activamente a los usuarios hacia ellos. Basta introducir consultas como «nudify», «undress» o «deepnude» para obtener decenas de aplicaciones capaces de «quitar» la ropa a las personas en las fotos, crear videos pornográficos o convertir imágenes en chatbots explícitos.

Y esto no son casos aislados. Alrededor del 40 % de las aplicaciones que aparecen en los resultados de búsqueda pueden generar imágenes desnudas o semidesnudas de mujeres. Algunos servicios lo hacen literalmente en un par de toques – basta seleccionar el área de la ropa en la foto e introducir un comando como «quitar ropa».

Los algoritmos van más allá. Al escribir la consulta, las tiendas mismas proponen nuevas variantes de búsqueda que conducen a un número aún mayor de programas similares. Al mismo tiempo, muestran publicidad de esas aplicaciones a los usuarios – a veces directamente en la parte superior de los resultados.

La escala resultó impresionante. Las aplicaciones incluidas en la muestra fueron descargadas 483 millones de veces y los ingresos totales superaron los 122 millones de dólares. Además, 31 servicios tenían una clasificación por edad que permite el uso por menores. En el contexto de los escándalos cada vez más frecuentes con deepfakes en las escuelas, esta situación resulta especialmente preocupante.

Algunas aplicaciones no solo «desvisten» a las personas, sino que también permiten sustituir rostros. El usuario puede tomar la fotografía de una persona conocida y «trasladar» su rostro al cuerpo de un modelo desnudo. A menudo no existen restricciones, incluso cuando se trata de imágenes claramente explícitas.

Una categoría aparte son los chatbots con inteligencia artificial. En varias aplicaciones se puede crear un «interlocutor virtual» a partir de la fotografía de una persona real, definirle una personalidad y luego recibir de él imágenes explícitas. En algunos casos, entre los personajes disponibles aparecen figuras que parecen adolescentes.

Cuando la información se hizo pública, parte de los desarrolladores comenzó a hacer cambios: en algunos casos eliminaron la generación de desnudez total, sustituyéndola por imágenes en trajes de baño; en otros reforzaron los filtros. Pero incluso esas versiones siguen contraviniendo las normas de las tiendas, que prohíben la humillación y la sexualización de las personas.

Representantes de Google declararon que eliminaron parte de las aplicaciones y continúan con la revisión. Apple se negó a comentar. Tras las consultas de los periodistas a las empresas, estas retiraron varias decenas de servicios, pero el problema no desapareció por completo.

La historia muestra que las tiendas de aplicaciones ya no son simplemente plataformas donde se alojan programas. Los algoritmos de búsqueda, los bloques publicitarios y las sugerencias influyen directamente en qué servicios encuentran los usuarios. En el caso de las redes neuronales que «desvisten», ese papel resulta especialmente controvertido, dado que esos servicios crean imágenes íntimas sin el consentimiento de las personas.