IA contra Ferrari: un análisis de un sofisticado ataque utilizando deepfake

IA contra Ferrari: un análisis de un sofisticado ataque utilizando deepfake

Cómo la voz de Benedetto Vigna casi convenció a un jefe de división para revelar sus secretos.

image

En julio de este año, el jefe de una división de Ferrari NV comenzó a recibir mensajes inesperados que aparentemente provenían de Benedetto Vigna, el director ejecutivo de Ferrari. Los mensajes que llegaron al WhatsApp del jefe decían lo siguiente: «Hola, ¿has oído sobre la gran adquisición que estamos planeando? Podría necesitar tu ayuda».

Por supuesto, el número de teléfono y la foto de perfil de WhatsApp no coincidían con los que Vigna usaba realmente. El estafador que se hacía pasar por el director pidió firmar un acuerdo de confidencialidad, asegurando que el regulador del mercado italiano y la Bolsa de Milán ya estaban informados. El mensaje también enfatizaba la necesidad de mantener la máxima discreción.

Luego, los delincuentes llamaron a la potencial víctima y, utilizando tecnología deepfake, mantuvieron una conversación realista en nombre del director. La voz, que imitaba a Vigna, era bastante convincente, incluyendo un acento del sur de Italia.

El estafador explicó al jefe de división que llamaba desde otro número debido a la necesidad de discutir un asunto confidencial relacionado con posibles problemas en China y la necesidad de una transacción de cobertura de divisas.

El jefe sospechó de un engaño al notar ligeras inflexiones mecánicas en la voz. Preguntó cuál era el título del libro que Vigna le había recomendado recientemente, y después de eso, la llamada se interrumpió repentinamente. Luego, Ferrari inició una investigación interna.

Estos eventos, según informan fuentes conocedoras, se convirtieron en uno de los últimos intentos de utilizar tecnologías deepfake para atacar a una empresa reconocida internacionalmente. Ferrari logró evitar daños, pero en el caso de delincuentes mejor preparados, quién sabe, tal vez el jefe no habría notado el engaño.

Mientras tanto, el uso de deepfakes se está volviendo cada vez más común. En mayo de este año, el director ejecutivo del gigante publicitario WPP Plc, Mark Read, también fue víctima de un intento fallido de estafa con deepfake.

Según Rachel Tobac, directora ejecutiva de la empresa de ciberseguridad SocialProof Security, el número de intentos de utilizar clones de voz mediante IA ha aumentado drásticamente este año. Sin embargo, aunque las tecnologías de IA generativa pueden crear imágenes deepfake convincentes, las grabaciones de video y audio aún no han alcanzado la calidad y fiabilidad necesarias para engaños masivos.

No obstante, algunas empresas ya han sido víctimas de estafadores. A principios de este año, una empresa multinacional no identificada perdió 26 millones de dólares estadounidenses después de que estafadores utilizaran deepfakes para engañar a los empleados de esta firma en Hong Kong.

Algunas empresas, como CyberArk, ya están capacitando a sus ejecutivos para reconocer cuándo están siendo engañados por bots. El profesor de ciberseguridad Stefano Zanero, del Politécnico de Milán, cree que con el tiempo, estas herramientas de IA se volverán increíblemente precisas.

Las huellas digitales son tu debilidad, y los hackers lo saben

¡Suscríbete y descubre cómo borrarlas!