¿Qué encontraron los analistas en el código del popular asistente de IA?
Los analistas han descubierto fallos graves en la aplicación Perplexity AI que permiten el robo de contraseñas y datos personales de usuarios en todo el mundo. En 2025, la inteligencia artificial no solo sustituye los motores de búsqueda, listas de compras y amigos: ahora responde a las preguntas existenciales más profundas de la humanidad. Sin embargo, mientras confiamos nuestros pensamientos más íntimos a estos asistentes inteligentes, ellos revelan nuestros datos personales sin el menor cuidado. ¿A quién? Buena pregunta…
Un equipo de expertos de la empresa Appknox realizó un análisis detallado de la versión para Android de Perplexity, uno de los asistentes de IA más elegantes e inteligentes del mercado. Los problemas de seguridad detectados en la aplicación son tan serios que harían sonrojar incluso al tristemente célebre sistema Deepseek. Los hallazgos recuerdan al guion de un thriller digital: brechas de seguridad que abren la puerta al robo de cuentas, filtraciones de datos y suplantación de identidad.
En el código de la aplicación se encontraron claves API sin protección —algo así como pases digitales a los sistemas internos. Cualquiera con conocimientos para descompilar aplicaciones Android puede acceder a estas claves. Según los especialistas, esto equivale a escribir el PIN en el reverso de una tarjeta bancaria y llamarlo innovación.
Aún más peligrosa resultó ser la configuración incorrecta de la interfaz de programación de Perplexity: contiene comodines en los permisos de acceso. En términos simples, cualquier recurso en internet puede interactuar con el servidor sin verificación de origen. Este descuido deja el sistema vulnerable a ataques cross-site, donde los atacantes pueden acceder a datos personales desde sitios maliciosos.
La aplicación tampoco implementa el "SSL pinning", un mecanismo clave para cifrar el tráfico. La ausencia de esta protección básica permite que atacantes ejecuten ataques de tipo "man-in-the-middle", interceptando sesiones de búsqueda, espiando las acciones de la víctima y robando contraseñas y datos personales en tiempo real.
El bytecode de Perplexity está completamente abierto, lo que convierte al servicio en un campo de juegos para la ingeniería inversa. Los atacantes pueden descomponer la aplicación, encontrar nuevas vulnerabilidades o, peor aún, crear versiones falsas para el robo de datos y estafas.
La falta de protección contra depuración y exploits para desarrolladores fue la gota que colmó el vaso. Es un grave error que permite a los atacantes estudiar el funcionamiento de la plataforma en entornos controlados y modificarla para sus propios fines.
“Nuestras pruebas revelaron vulnerabilidades críticas en Perplexity AI que exponen a los usuarios a múltiples riesgos, incluidos el robo de datos, la ingeniería inversa y la explotación”, declaró Subho Halder, director general de Appknox. “Es crucial que los desarrolladores solucionen estos problemas con urgencia. Mientras tanto, los usuarios deben actuar con cautela, especialmente al realizar operaciones confidenciales”.
El equipo también señaló lo siguiente:
Cada vulnerabilidad detectada en Deepseek también está presente en Perplexity, junto con cinco debilidades adicionales que amplían aún más la superficie de ataque. Esto no es solo una omisión: es una tendencia. Las aplicaciones de IA evolucionan rápidamente, pero su seguridad no sigue el mismo ritmo.
Sin embargo, Deepseek tampoco se queda atrás con sus propias carencias críticas: configuraciones de red inseguras y vulnerabilidad ante amenazas avanzadas como StrandHogg y Janus. Estas fallas también hacen del chatbot un objetivo atractivo para ataques complejos que interceptan sesiones de usuario e introducen malware.
Los expertos advierten: si se encuentran problemas así en las principales aplicaciones de IA, solo podemos imaginar qué amenazas esconden los cientos de clones que inundan las tiendas en línea.