Confiar ciegamente en la tecnología pone a la policía en riesgo de convertir coincidencias en causas de arresto.
La empresa Cellebrite ha anunciado la incorporación de IA en sus productos. Entre las nuevas funciones se incluyen la síntesis automática de chats y mensajes de audio de dispositivos incautados. Esta innovación ya ha generado preocupaciones entre los defensores de los derechos civiles.
Un representante de la Unión Estadounidense por las Libertades Civiles (ACLU) señaló que el principal problema radica en que las conclusiones de la IA no siempre son rastreables ni verificables. Además, los algoritmos pueden arrojar resultados erróneos, especialmente si han sido entrenados únicamente con datos de casos penales que resultaron en condenas. Esto podría llevar a que el sistema no interprete correctamente situaciones en las que no haya pruebas suficientes para una acusación.
La nueva herramienta de IA se ha integrado en el software Guardian, diseñado para la gestión de pruebas digitales. La empresa afirma que los algoritmos pueden analizar chats, identificar mensajes potencialmente relevantes, interpretar historiales de navegación y detectar conexiones entre sospechosos.
Uno de los primeros usuarios de las soluciones de IA de Cellebrite ha sido el sargento detective Aaron Osman del Departamento de Policía de Susquehanna Township (Pensilvania). Osman destacó que «la nueva tecnología permitió vincular rápidamente una investigación sobre robos de paquetes con una organización criminal internacional, ahorrando una cantidad significativa de tiempo». Según el detective, el sistema de IA tradujo y analizó automáticamente las conversaciones de los sospechosos, lo que permitió a la policía comprender más rápidamente el alcance de la red delictiva.
Sin embargo, los defensores de los derechos civiles advierten sobre los riesgos de estos métodos. ACLU señala que las fuerzas del orden no pueden analizar datos indiscriminadamente sin razones justificadas. Según la Cuarta Enmienda de la Constitución de EE. UU., la policía solo tiene derecho a examinar información para la cual ya existen sospechas razonables. Si se investiga un robo de paquetes sin pruebas de vínculos con el crimen organizado, analizar datos «por si acaso» viola los derechos constitucionales.
En ACLU también preocupa que los algoritmos de IA puedan inducir a los investigadores a buscar patrones falsos. Cuantos más datos procesa el sistema, mayor es la probabilidad de detectar correlaciones que podrían ser accidentales o engañosas. Además, las empresas desarrolladoras tienen interés en promover sus tecnologías, mientras que los investigadores buscan herramientas eficaces, lo que podría generar una confianza excesiva en los resultados del análisis.
En respuesta a las críticas, un representante de Cellebrite afirmó que las nuevas herramientas están diseñadas exclusivamente para mejorar la productividad y reducir el tiempo de operaciones rutinarias. Según la empresa, los resultados del análisis de IA siempre incluyen referencias a los datos originales y las decisiones finales siguen siendo responsabilidad de los investigadores. También se enfatiza que la IA no reemplaza los métodos tradicionales de investigación, sino que simplemente ayuda a automatizar el procesamiento de información.
Otras empresas también están desarrollando tecnologías similares. Por ejemplo, Axon ha implementado la herramienta Draft One, que utiliza soluciones de OpenAI para la redacción automática de informes policiales basados en grabaciones de cámaras corporales. Sin embargo, en este caso, el fabricante subraya que la responsabilidad por la precisión del documento final sigue recayendo en el usuario.