El oráculo de IA desenmascara a los futuros manipuladores en X

El oráculo de IA desenmascara a los futuros manipuladores en X

Cómo el nuevo algoritmo protegerá a los usuarios de la plataforma contra trolls y noticias falsas.

image

Científicos europeos han creado un algoritmo de aprendizaje automático capaz de predecir el comportamiento malicioso de los usuarios en la red social X (anteriormente Twitter). La investigación, publicada el 12 de julio en la revista IEEE , muestra un avance significativo en la lucha contra la difusión de información falsa y la manipulación de la opinión pública en internet.

Un equipo de científicos dirigido por Rubén Sánchez-Corcuera, profesor de ingeniería en la Universidad de Deusto en España, desarrolló un modelo que es un 40% más eficaz que los existentes. El algoritmo se basa en el modelo JODIE (Jointly Optimizing Dynamics and Interactions for Embeddings), que calcula la probabilidad de diferentes escenarios de interacción entre usuarios en redes sociales. Sin embargo, los investigadores lo mejoraron añadiendo una red neuronal recurrente que tiene en cuenta las acciones pasadas de una persona y los intervalos de tiempo entre ellas.

El modelo fue probado en tres conjuntos de datos reales que incluyen millones de tuits de ciudadanos de China, Irán y Rusia. El primer conjunto contenía 936 cuentas vinculadas al gobierno de China, que intentaban provocar disturbios políticos durante las protestas en Hong Kong en 2019. El segundo conjunto incluyó 1666 cuentas de Twitter vinculadas al gobierno iraní, que publicaban tuits sesgados en apoyo de los intereses diplomáticos y estratégicos de Irán en 2019. El conjunto de cuentas de usuarios rusos contenía 1152 registros.

Los resultados de las pruebas entusiasmaron a los desarrolladores. Por ejemplo, al analizar solo el 40% de las interacciones en el conjunto de datos iraní, la IA identificó con precisión al 75% de los usuarios que posteriormente violaron las políticas de la plataforma. El profesor Sánchez-Corcuera destaca la importancia del algoritmo para crear un entorno en línea más seguro y constructivo. Según él, la reducción del nivel de odio y manipulación en las redes sociales podría disminuir la polarización en la sociedad. Esto no solo beneficiaría a las plataformas digitales, sino también al bienestar general de las personas.

Según los científicos, su enfoque es mayormente aplicable a redes sociales basadas en texto, como X. Para plataformas orientadas a contenido multimedia, como TikTok o Instagram*, se necesitarían otros métodos. El programa utiliza características temporales, lo que lo hace especialmente eficaz en un entorno en el que la audiencia crece constantemente y los usuarios de diferentes países y antecedentes tienen acceso equitativo a la red.

La investigación también plantea cuestiones éticas importantes sobre el equilibrio entre la seguridad y la libertad de expresión en internet. Por supuesto, la implementación de estos algoritmos requiere una consideración cuidadosa de los riesgos potenciales y el desarrollo de reglas claras para su uso.

Tu privacidad está muriendo lentamente, pero nosotros podemos salvarla

¡Únete a nosotros!