La IA, una vez más, utilizada para el mal.
Una función común en los teléfonos inteligentes modernos se ha convertido inesperadamente en una grave amenaza para la seguridad. Se ha descubierto que los saludos personalizados en los buzones de voz pueden ser un verdadero tesoro para los delincuentes.
Según datos de Transaction Network Services (TNS), empresa especializada en infraestructuras de telecomunicaciones y servicios financieros a nivel mundial, la inteligencia artificial solo necesita tres segundos de grabación para reproducir con precisión la voz de una persona, y esto es posible incluso con aplicaciones gratuitas de IA.
Los sistemas generativos han aprendido a imitar con asombrosa precisión las características del habla humana. No solo replican el timbre, sino también la entonación, el ritmo y los matices característicos de cada persona. Con grabaciones falsas, los delincuentes extorsionan a víctimas, cometen fraudes, dañan la reputación de personas y organizaciones, y propagan desinformación política y de otro tipo a gran escala.
La amenaza de los deepfakes está empujando a los reguladores a tomar medidas drásticas. En febrero de 2024, la Comisión Federal de Comunicaciones de EE. UU. prohibió por completo las llamadas automatizadas que emplean inteligencia artificial. La decisión se tomó en respuesta a una nueva ola de fraudes de ingeniería social: los estafadores comenzaron a grabar la voz de las víctimas durante una llamada para luego utilizarla a su conveniencia. Regulaciones similares están siendo implementadas en otros países. Pero, ¿será suficiente?
Entre las estafas más comunes con IA destaca la imitación de voces de familiares. Este esquema es particularmente efectivo contra personas mayores: los delincuentes llaman a abuelos haciéndose pasar por sus nietos y les informan sobre una emergencia, como un accidente, una detención policial o una hospitalización repentina. El pánico y la preocupación por un ser querido suelen hacer que la víctima actúe impulsivamente sin cuestionar la veracidad del mensaje.
Para los altos ejecutivos, la amenaza es aún más grave. Recientemente, directores generales de grandes empresas tecnológicas estadounidenses revelaron a Cybernews múltiples casos en los que delincuentes clonaron las voces de colegas influyentes para manipular al personal. A menudo, además del audio falso, también falsificaban los números de teléfono de los directivos.
John Miller, cofundador y director de Halcyon, una empresa especializada en la lucha contra el ransomware, recordó el notorio hackeo de MGM en 2023. Usando tecnología de clonación de voz, los atacantes lograron engañar los sistemas de seguridad de la corporación. La voz falsificada de un ejecutivo les permitió acceder a infraestructuras críticas, lo que resultó en una fuga masiva de datos.
Según Miller, los profesionales del sector suelen verificar las llamadas sospechosas. Sin embargo, los empleados comunes, especialmente los recién contratados, pueden desorientarse fácilmente, sobre todo cuando escuchan la voz de un alto directivo exigiendo contraseñas u otra información confidencial de manera urgente.
Los altos mandos también son blanco frecuente de un tipo de phishing dirigido conocido como whale phishing (caza de ballenas). Este término enfatiza el valor de la víctima: en lugar de enviar correos fraudulentos masivos, los atacantes se centran en una figura clave dentro de una empresa. Para ello, pueden pasar semanas recopilando información de redes sociales, foros profesionales y discursos públicos, con el objetivo de conocer en detalle su estilo de comunicación, su círculo de contactos y sus proyectos actuales, factores que pueden utilizar como palanca en su ataque.
¿Qué se puede hacer? En primer lugar, reducir al mínimo la cantidad de mensajes de voz que se comparten en redes sociales con amigos, familiares y colegas. También es recomendable evitar la autenticación por biometría de voz.
En lugar de un saludo personalizado en el buzón de voz, es preferible dejar un mensaje estándar del operador.
Si un número desconocido llama, los expertos aconsejan no decir nada hasta que la otra persona hable primero. De este modo, los estafadores tendrán muchas más dificultades para obtener una muestra de voz para suplantar.
Otra estrategia es establecer una palabra clave secreta dentro de la familia. Este código solo conocido por los allegados puede servir para verificar la autenticidad de mensajes urgentes. Además, podría utilizarse como señal de alarma si los estafadores hackean cuentas en redes sociales y comienzan a difundir contenido con una voz falsificada.