GPT‑4, oficialmente un aguafiestas: el modelo complica la vida incluso cuando nadie se lo pide.

GPT‑4, oficialmente un aguafiestas: el modelo complica la vida incluso cuando nadie se lo pide.

La IA copia de los humanos la mala costumbre de añadir detalles donde debería recortar

image

Las personas suelen complicar las decisiones, incluso cuando existe un camino más sencillo. En lugar de eliminar lo superfluo, preferimos añadir algo. Los psicólogos llaman a esto «sesgo hacia la adición», y ahora se ha descubierto que los sistemas modernos de inteligencia artificial también pecan de lo mismo.

Un grupo de investigadores de la Universidad de Tubinga y del Instituto Leibniz de Conocimiento de los Medios examinó cómo se comportan los modelos de lenguaje al resolver tareas. Querían entender si estos sistemas replican el típico error de pensamiento humano, en el que una persona opta por añadir en lugar de reducir, aunque eliminar sea más rápido y ventajoso. El estudio se publicó en una revista científica de psicología de la comunicación.

Este sesgo se entiende como la tendencia estable a resolver un problema mediante la adición en lugar de la simplificación. Un ejemplo clásico es intentar mejorar un texto con nuevos párrafos y explicaciones en lugar de eliminar fragmentos innecesarios. Desde el punto de vista del resultado, la segunda opción suele ser mejor, pero se elige con menos frecuencia.

Los autores del estudio compararon el comportamiento de las personas con el de dos versiones de un modelo de lenguaje: GPT-4 y GPT-4o. Realizaron varias series de experimentos. En ellos participaron más de mil voluntarios, y las respuestas de los modelos se generaron por separado y en gran cantidad. A los participantes y al sistema se les propusieron tareas espaciales y textuales. En unos casos era más eficaz añadir algo; en otros, eliminar parte de los elementos. También variaron las formulaciones de las instrucciones, desde neutras hasta con matiz positivo.

La imagen fue parecida, aunque no idéntica. Tanto las personas como los modelos de lenguaje tendían más a añadir. No obstante, esa inclinación fue más marcada en los modelos. Cuando eliminar algo conducía claramente a una solución más rápida y sencilla, las personas con mayor frecuencia optaban por esa alternativa, mientras que GPT-4, por el contrario, continuaba aun con más intensidad añadiendo a la respuesta. GPT-4o en las tareas textuales se comportó más próximo al humano, pero en las tareas espaciales casi no reaccionó a la diferencia en la eficiencia de los enfoques.

El matiz de las formulaciones también influyó en el resultado. En las tareas textuales, las instrucciones con tono positivo empujaban a los modelos a elegir con más frecuencia la adición. En las personas el mismo efecto se observó solo en una de las series de experimentos.

Los investigadores relacionan esto con el entrenamiento de los modelos en grandes volúmenes de textos humanos. Junto con el lenguaje, el sistema aprende también los patrones típicos de pensamiento. Como resultado, no solo copia el sesgo humano, sino que a veces lo amplifica. Los autores consideran que estas características deben tenerse en cuenta al desarrollar y evaluar sistemas de inteligencia artificial, especialmente allí donde se espera que tomen decisiones mesuradas y económicas.