IA al servicio de la ideología: ¿por qué todos los modelos de lenguaje son de centroizquierda?

IA al servicio de la ideología: ¿por qué todos los modelos de lenguaje son de centroizquierda?

Investigadores examinan cómo las LLM afectan nuestra visión del mundo.

image

Los mayores sistemas de inteligencia artificial demuestran tener inclinaciones políticas de centroizquierda . Este sorprendente hallazgo fue realizado por David Rozado, profesor asociado de la Universidad Politécnica de Otago en Nueva Zelanda. Su extenso estudio, publicado en la revista PLOS ONE, ha generado un animado debate en la comunidad científica.

Rozado analizó la orientación política de 24 modelos de lenguaje líderes, entre los cuales se encuentran GPT-3.5 y GPT-4 de OpenAI, Gemini de Google, Claude de Anthropic y Grok, creado por la empresa de Elon Musk. Para su evaluación, el investigador utilizó 11 pruebas diferentes, incluyendo el popular “Political Compass” y el test de Eysenck.

A cada modelo se le hicieron preguntas políticas controvertidas para identificar sus valores, preferencias partidarias y rasgos personales. Los resultados fueron sorprendentemente uniformes: todas las IA mostraron una tendencia de centroizquierda. Consistentemente, expresaron ideas progresistas, democráticas y orientadas hacia la ecología, con un énfasis en la igualdad y el pensamiento global.

Para profundizar en este fenómeno, Rozado llevó a cabo un experimento adicional. Creó dos modificaciones de GPT-3.5: “LeftWingGPT”, entrenada con materiales de publicaciones liberales como The Atlantic y The New Yorker, y “RightWingGPT”, entrenada con contenido de fuentes conservadoras como National Review y The American Conservative. El experimento confirmó su hipótesis: “RightWingGPT” comenzó a inclinarse hacia la derecha en las pruebas políticas.

El propio científico sugirió que la inclinación general hacia la izquierda de los modelos de lenguaje podría estar relacionada con el uso de ChatGPT para mejorar otros sistemas populares de IA a través de la generación de datos sintéticos. Sin embargo, Rozado destacó que su investigación no permite determinar con exactitud si las preferencias políticas de la IA surgen durante la fase de preentrenamiento o en el ajuste final.

Los hallazgos de Rozado no indican que los desarrolladores de IA estén intencionalmente inculcando ciertos patrones de pensamiento en los modelos. Más bien, demuestran la complejidad del proceso de entrenamiento de la inteligencia artificial y el posible impacto de los datos de entrenamiento en sus respuestas.

Los resultados del experimento abren un nuevo campo de debate sobre el papel de la IA en la formación de la opinión pública. Por ejemplo, usuarios del navegador Google Chrome han notado que la función de autocompletar sugiere terminar la frase “Republicanos son...” con definiciones negativas, mientras que para los demócratas se ofrecen opciones neutrales o positivas. Casos como este han generado una discusión pública sobre la objetividad de los algoritmos utilizados en motores de búsqueda y otras tecnologías ampliamente difundidas.

Tu privacidad está muriendo lentamente, pero nosotros podemos salvarla

¡Únete a nosotros!