Un estudio revela cómo caímos en una trampa cognitiva debido a la confianza en la IA.
Un estudio realizado por Microsoft y Carnegie Mellon University reveló que cuanto más confían las personas en la inteligencia artificial generativa en el trabajo, menos utilizan el pensamiento crítico. Esta tendencia podría debilitar las capacidades cognitivas.
El experimento involucró a 319 trabajadores intelectuales que describieron 936 casos de uso de la IA en su actividad. Los participantes completaron un cuestionario en el que evaluaron su nivel de confianza en los algoritmos, su capacidad para verificar los resultados de la IA y sus habilidades para realizar las mismas tareas sin asistencia tecnológica. Algunos ejemplos incluyeron el uso de DALL-E por un profesor para crear imágenes, la aplicación de ChatGPT por un trader para desarrollar nuevas estrategias y la revisión de un folleto médico generado por IA por parte de una enfermera.
Se descubrió que cuanto más confiaban las personas en la IA, menos aplicaban el pensamiento crítico. Si dudaban de la precisión de las respuestas del algoritmo, se involucraban en el proceso, verificaban los datos y tomaban decisiones fundamentadas. La dependencia de la IA reducía especialmente la capacidad de juicio independiente en tareas rutinarias y de bajo riesgo.
Además, los grupos que utilizaban IA generativa producían soluciones menos diversas en comparación con aquellos que trabajaban sin IA. Esto indica una reducción en el análisis individual y la adaptación de soluciones a circunstancias específicas. Sin embargo, cuando las personas estaban bajo presión de tiempo, su evaluación crítica de la IA disminuía, mientras que en situaciones de alto riesgo, aumentaba.
Los investigadores señalaron que las preocupaciones sobre el impacto de las nuevas tecnologías en las capacidades cognitivas han existido durante mucho tiempo. Se han debatido cuestiones similares sobre la escritura, la imprenta, las calculadoras y el internet. No obstante, el uso inadecuado de la tecnología puede afectar negativamente las habilidades mentales.
Como solución, los investigadores propusieron incorporar mecanismos en la IA que motiven a los usuarios a analizar y verificar la información. Esto podría incluir explicaciones sobre la lógica de la IA, advertencias sobre puntos controvertidos o sugerencias para mejorar las respuestas. Este enfoque permitiría utilizar la inteligencia artificial no como un sustituto del pensamiento, sino como una herramienta para su desarrollo.