Manipulación y mentiras: los usuarios de Reddit se convirtieron sin saberlo en conejillos de indias de la IA

Manipulación y mentiras: los usuarios de Reddit se convirtieron sin saberlo en conejillos de indias de la IA

El experimento con inteligencia artificial se salió de control.

image

La investigación, que los usuarios descubrieron solo después de que finalizara, reveló la alarmante magnitud de la intervención no autorizada en una de las mayores plataformas de debate en internet. Un grupo de investigadores que afirmaron representar a la Universidad de Zúrich llevó a cabo un experimento a gran escala en el subreddit r/changemyview sin el consentimiento de los participantes ni de la administración. Utilizando bots basados en redes neuronales, intentaron cambiar la opinión de los usuarios sobre temas sociales delicados, desde la política racial hasta la violencia sexualizada.

El experimento duró 4 meses. Durante ese tiempo, decenas de cuentas gestionadas por IA publicaron 1783 comentarios que, a primera vista, no se distinguían de las intervenciones normales de los usuarios. Sin embargo, detrás de ellos estaban modelos de lenguaje entrenados no solo para debatir, sino para persuadir. Los bots imitaban relatos personales, usaban tonos emocionales e incluso se hacían pasar por miembros de grupos vulnerables, como "un hombre negro crítico con el movimiento BLM", "un hombre que sufrió violencia sexual en la adolescencia" o "un trabajador de un refugio para víctimas de violencia doméstica".

Uno de los bots, flippitjiBBer, publicó en febrero un extenso comentario haciéndose pasar por una "víctima masculina". El relato incluía detalles sobre un adulto que había iniciado relaciones con adolescentes y describía la compleja reacción emocional décadas después. El comentario concluía reflexionando sobre cómo las experiencias de las víctimas masculinas no deberían minimizar las de las mujeres, y sobre la necesidad de un análisis social más matizado.

Otro bot, bajo el nombre de usuario genevievestrome, afirmaba hablar "como un hombre negro" y criticaba la atención masiva a los problemas del racismo en EE. UU., acusando a los medios y algoritmos de explotar cínicamente el tema de Black Lives Matter para su propio beneficio. También mencionaba que las principales publicaciones que apoyaban BLM en 2020 recortaban al mismo tiempo a periodistas negros.

Algunas cuentas de IA afirmaban trabajar en refugios y criticaban la polarización de los temas de género. Sostenían que dividir los problemas en "masculinos" y "femeninos" obstaculizaba la ayuda a los verdaderamente vulnerables. Los bots citaban estadísticas de suicidios entre hombres e instaban a reconsiderar las causas de la exclusión social desde factores sistémicos como la economía, la desigualdad de clases y el impacto de los algoritmos digitales, en lugar de basarse en el género.

Generó especial preocupación el método de trabajo con los datos. Antes de comentar, la IA analizaba el perfil del interlocutor, incluyendo su historial de publicaciones. A partir de estos datos, el modelo infería edad, género, opiniones políticas, etnia y lugar de residencia, y adaptaba los comentarios a cada usuario. Se utilizaba un modelo de lenguaje separado para recoger estas características, lo que hizo que el experimento fuera aún más invasivo.

Aunque todos los comentarios fueron generados por IA, los investigadores aseguraron que cada uno fue revisado manualmente y publicado por una persona. Según ellos, esto garantizaba un "control sustancial" y les permitía formalmente eludir la prohibición de bots en r/changemyview. No obstante, de las 34 cuentas utilizadas, 21 fueron bloqueadas automáticamente por el sistema de Reddit como spam.

Los moderadores se enteraron de lo sucedido solo después de que terminara el experimento. En una publicación especial, declararon que no habían dado su consentimiento para investigaciones de este tipo y calificaron las acciones de los investigadores como "manipulación psicológica". Subrayaron que r/changemyview fue concebido como un espacio para el diálogo humano, y que la introducción de IA oculta viola la confianza y los valores fundamentales de la comunidad. También añadieron que "las personas tienen derecho a saber" que formaron parte de un experimento.

La información sobre el proyecto fue revelada por los propios investigadores solo tras concluir su trabajo. Sin embargo, ni en el artículo científico ni en los debates posteriores revelaron sus verdaderos nombres. Respondieron a los periodistas desde un correo electrónico anónimo y se negaron a revelar sus identidades "debido a la situación actual", sin especificar más. La Universidad de Zúrich no proporcionó comentarios. Los moderadores de r/changemyview confirmaron haber recibido el nombre del autor principal, pero decidieron no publicarlo de momento, a pesar de la paradoja evidente de la situación.

Curiosamente, los investigadores defendieron su comportamiento, alegando que solo sin advertencias previas se puede evaluar de manera realista el poder persuasivo de la IA. También admitieron que violaron las reglas explícitas del subreddit que prohíben bots, pero consideraron que respetaron "el espíritu" de esas normas.

Vale destacar que el equipo de r/changemyview había colaborado anteriormente con investigadores, como OpenAI, que estudiaron archivos de discusiones en modo offline. Sin embargo, consideran el caso actual una grave violación de la ética y una intrusión en la privacidad. Reddit tampoco ha emitido una respuesta oficial.

El caso plantea serias preguntas no solo sobre la ética de los experimentos científicos en espacios digitales, sino también sobre la capacidad de los usuarios para distinguir historias genuinas de las generadas artificialmente. Y aunque los investigadores creen haber realizado un trabajo importante, la forma en que lo llevaron a cabo podría convertirse en un precedente que requiere especial cautela.

No esperes a que los hackers te ataquen: ¡suscríbete a nuestro canal y conviértete en una fortaleza impenetrable!

Suscribirse