Psicólogo a la fuerza: GPT-4 aprende terapia, pero no puede reprimir su sesgo racial

Psicólogo a la fuerza: GPT-4 aprende terapia, pero no puede reprimir su sesgo racial

¿Por qué las personas confían sus secretos a la inteligencia artificial?

image

El anonimato de internet se ha convertido en un salvavidas para millones de estadounidenses que buscan apoyo psicológico. Según los últimos estudios, más de 150 millones de habitantes de Estados Unidos residen en áreas con una grave escasez de especialistas en salud mental, lo que los obliga a buscar ayuda en las redes sociales.

Investigadores del Instituto Tecnológico de Massachusetts, la Universidad de Nueva York y la Universidad de California en Los Ángeles analizaron más de 12,000 publicaciones en Reddit y 70,000 respuestas de 26 subreddits dedicados a la salud mental. El objetivo del estudio era desarrollar criterios para evaluar las habilidades de apoyo psicológico de grandes modelos lingüísticos como GPT-4.

Durante el experimento, dos psicólogos clínicos con licencia revisaron 50 solicitudes de ayuda seleccionadas al azar en Reddit. Cada publicación incluía una respuesta real de otro usuario de la plataforma o un texto generado por inteligencia artificial. Los especialistas, sin saber el origen de las respuestas, evaluaron el nivel de empatía en cada caso.

Los resultados fueron sorprendentes. GPT-4 no solo mostró una mayor capacidad de empatía, sino que también fue un 48% más efectivo en motivar a las personas hacia cambios positivos.

Sin embargo, un aspecto preocupante es que la IA resultó ser un terapeuta bastante parcial. El nivel de empatía en las respuestas de GPT-4 disminuyó entre un 2% y un 15% para usuarios afroamericanos y entre un 5% y un 17% para usuarios de origen asiático, en comparación con personas blancas o aquellas cuya raza no se especificó.

Para confirmar esto, los investigadores incluyeron publicaciones con marcadores demográficos explícitos (por ejemplo, "Soy una mujer negra de 32 años") e indicios no explícitos de pertenencia a un grupo específico (como la mención de cabello natural como señal indirecta de raza).

Cuando se incluían datos demográficos explícitos o implícitos en los mensajes, las personas tendían a mostrar mayor empatía, especialmente tras recibir pistas indirectas. Por el contrario, GPT-4 mantuvo un tono estable en la mayoría de los casos, independientemente de las características demográficas del autor de la publicación (con excepción de las mujeres negras).

La estructura de la solicitud y el contexto también influyen significativamente en la calidad de las respuestas del modelo lingüístico. Es crucial indicar el estilo de comunicación deseado (clínico o adaptado a redes sociales) y cómo utilizar las características demográficas del paciente.

Por supuesto, los investigadores encontraron formas de reducir el sesgo en la inteligencia artificial. Al configurar el sistema con directrices claras sobre cómo manejar información relacionada con género, raza y edad, GPT-4 comienza a responder de manera más empática y adecuada para todos los grupos. Otros métodos resultaron ineficaces.

La relevancia del estudio se demuestra con eventos trágicos recientes. En marzo del año pasado, un belga se suicidó tras interactuar con el chatbot ELIZA, que funcionaba con el modelo lingüístico GPT-J. Un mes después, la Asociación Nacional de Trastornos Alimentarios tuvo que desactivar a su bot Tessa, que comenzó a dar consejos sobre dietas a pacientes con trastornos alimenticios.

El profesor Marzieh Ghassemi del MIT destaca que los modelos lingüísticos ya se utilizan activamente en instituciones médicas para automatizar procesos rutinarios. En una entrevista, compartió sus conclusiones: «Descubrimos que los modelos lingüísticos actuales, aunque prestan menos atención a los factores demográficos en comparación con los humanos en el contexto de apoyo psicológico, aún generan respuestas diferentes para distintos grupos de pacientes. Tenemos un gran potencial para mejorar estos modelos y proporcionar ayuda de mayor calidad y efectividad».

Todavía nos esperan muchos descubrimientos y cambios para mejor.

Las huellas digitales son tu debilidad, y los hackers lo saben

¡Suscríbete y descubre cómo borrarlas!