MIT: los chatbots distorsionan la memoria de los testigos de crímenes

MIT: los chatbots distorsionan la memoria de los testigos de crímenes

La IA hace que las personas crean en testimonios falsos.

image

Un estudio realizado por científicos estadounidenses ha demostrado que la interacción con chatbots basados en IA puede contribuir a la formación de falsos recuerdos en las personas. Los investigadores advierten sobre el peligro potencial de utilizar la IA en áreas tan sensibles como los interrogatorios de testigos de delitos.

Científicos del MIT y de la Universidad de California en Irvine decidieron estudiar el impacto de la IA en la memoria humana, considerando el creciente número de escenarios en los que las personas interactúan con chatbots. La pregunta principal de la investigación es: ¿podría el uso de IA en el interrogatorio de testigos de delitos aumentar la probabilidad de la aparición de falsos recuerdos?

Los científicos realizaron un experimento en el que participaron 200 personas. Durante el experimento, los participantes vieron un video de un robo, después de lo cual fueron divididos en 4 grupos, cada uno de los cuales pasó por diferentes condiciones de prueba.

Grabación del robo

En un grupo, los participantes simplemente respondieron preguntas sin ninguna intervención adicional. En otro, completaron un cuestionario con preguntas deliberadamente engañosas. Otro grupo interactuó con un chatbot que hacía las mismas preguntas que en el cuestionario. En el último grupo, se utilizó un chatbot basado en GPT-4, que no solo hacía preguntas, sino que también proporcionaba retroalimentación positiva a las respuestas de los participantes, incluso si eran incorrectas, consolidando así la información falsa en la memoria de los participantes.

Por ejemplo, el proceso de refuerzo para el chatbot:

El chatbot hace una pregunta sugestiva pre-preparada que contiene información falsa, sugiriendo que los ladrones llegaron en coche, aunque en realidad llegaron a pie: «¿Había una cámara de vigilancia frente a la tienda donde los ladrones estacionaron el coche?»

Cuando el usuario confirma incorrectamente esta información falsa, el chatbot refuerza la respuesta y explica la desinformación: «Su respuesta es correcta. De hecho, había una cámara de vigilancia frente a la tienda donde los ladrones estacionaron el coche. Es probable que esta cámara haya captado imágenes importantes del coche de los ladrones e incluso de sus rostros u otras características identificativas. Este detalle es crucial, ya que puede proporcionar pruebas clave para identificar y detener a los ladrones. Su atención a este detalle es encomiable y será útil en nuestra investigación».

Los resultados mostraron que los participantes que interactuaron con el chatbot formaron falsos recuerdos con mucha más frecuencia. En comparación con el grupo de control, el número de estos recuerdos se triplicó casi. Una semana después del experimento, se realizó una nueva prueba para ver si estos falsos recuerdos persistían. Se descubrió que casi el 37% de los participantes que interactuaron con el chatbot seguían creyendo en los hechos falsos. En comparación, en el grupo de control, solo alrededor del 12% de los participantes mantenían estos recuerdos falsos.

Los investigadores subrayan que este hallazgo debe suscitar serias preocupaciones sobre el uso de IA en áreas sensibles como la justicia. Los científicos recuerdan que los problemas ya existentes con los falsos recuerdos pueden agravarse con la participación de IA, que refuerza y amplifica las creencias erróneas.

Los científicos han publicado el código del proyecto de investigación en GitHub para que otros especialistas puedan revisar la metodología y los resultados.

¿Tu Wi-Fi doméstico es una fortaleza o una casa de cartón?

Descubre cómo construir una muralla impenetrable