Cómo la IA intenta apoderarse de los puestos de desarrolladores.
Las empresas de ciberseguridad se enfrentan a un nuevo problema: los ciberdelincuentes están utilizando inteligencia artificial y deepfakes para conseguir empleo en organizaciones haciéndose pasar por desarrolladores. Uno de estos casos ocurrió con Vidoc Security Lab. La empresa se topó dos veces con candidatos falsos que superaron con éxito las primeras fases de la entrevista, pero que finalmente resultaron ser estafadores.
Vidoc Security Lab publicó ofertas de trabajo en un portal de empleo polaco. Uno de los candidatos pasó varias fases del proceso de selección, pero despertó sospechas en el cofundador de la empresa debido a la discrepancia entre su acento y su supuesto origen. Los verdaderos problemas comenzaron en la etapa final, cuando la entrevista pasó al formato de vídeo.
Según un representante de la empresa, en cuanto el candidato encendió la cámara, quedó claro que no era una persona real. La imagen era antinatural: los movimientos de la cabeza y los labios estaban desincronizados, y en algunos momentos la cara parecía estar "pegada" a la figura. Sin embargo, el candidato respondía con confianza y competencia, lo que podría haber engañado a entrevistadores menos experimentados.
Dos meses después, la situación se repitió. Esta vez, el candidato se presentó como un desarrollador serbio llamado Bratislav. Su currículum parecía convincente: 9 años de experiencia, educación superior y más de 500 contactos en LinkedIn. Sin embargo, durante la entrevista, el candidato afirmó que su cámara no funcionaba. Más tarde, cuando finalmente accedió a activar el vídeo, se descubrió el engaño : su rostro volvía a verse antinatural y su voz tenía un marcado acento asiático.
Su forma de hablar también despertó sospechas. Todas sus respuestas estaban estructuradas en puntos, como si estuviera leyendo un texto generado por ChatGPT. Al sospechar un engaño, el reclutador le pidió que pasara la mano frente a su rostro, una prueba que permite detectar deepfakes, ya que los algoritmos suelen fallar al procesar cambios de este tipo en tiempo real. Sin embargo, el candidato se negó a realizar la prueba, y la entrevista fue interrumpida.
Según un representante de la empresa, estos casos son solo el comienzo de una ola de ataques impulsados por la IA. Los falsos candidatos de TI recuerdan los métodos utilizados por hackers norcoreanos, a quienes EE.UU. acusa de ciberataques y espionaje industrial.
Los especialistas en TI de Corea del Norte, que se hacen llamar "guerreros de TI", acceden a redes corporativas a través de "granjas de portátiles" registradas en EE.UU. Tras ser despedidos (o incluso después de ser contratados), estos empleados utilizan información interna robada para extorsionar a sus antiguos empleadores, amenazando con publicar los datos.
Los expertos en ciberseguridad advierten que el desarrollo de la IA provocará un aumento de este tipo de ataques. Las empresas, especialmente en el ámbito de la ciberseguridad, deben endurecer sus procesos de contratación e implementar medidas de verificación adicionales, incluyendo el análisis de patrones de comportamiento de los candidatos y pruebas técnicas que sean difíciles de superar para la IA. Los deepfakes, las respuestas generadas por IA y otras formas de engaño digital ya representan una grave amenaza para la seguridad corporativa.