El bot resuelve los tests de Mensa como si fueran crucigramas. ¿Deberíamos preocuparnos?
La nueva versión de ChatGPT, llamada o3, ha sorprendido a los expertos al obtener una puntuación de 136 en una prueba de coeficiente intelectual tipo Mensa en Noruega. Este resultado supera las capacidades cognitivas del 98 % de la población —una hazaña impresionante para un sistema que, en esencia, solo elige palabras según el contexto.
En el último año, los algoritmos de aprendizaje automático han dado un salto colosal. Las tecnologías se han vuelto más complejas, flexibles y, en muchos aspectos, más inteligentes que nunca. Este progreso vertiginoso ha llevado a las nuevas generaciones a replantearse qué significa realmente la inteligencia artificial.
Según una encuesta de EduBirdie, una cuarta parte de la Generación Z ya considera que la IA posee conciencia. Más de la mitad cree que, tarde o temprano, los asistentes virtuales desarrollarán una conciencia auténtica y quizá incluso exijan derechos electorales.
Sin embargo, conviene tomar con cautela los resultados del test noruego. Las pruebas de Mensa están disponibles públicamente, por lo que podrían haberse incluido en los datos de entrenamiento de ChatGPT. Para obtener una evaluación más objetiva, los investigadores de MaximumTruth.org diseñaron una nueva prueba completamente aislada de los materiales de entrenamiento.
En esta evaluación, comparable en dificultad a la de Mensa, el modelo o3 obtuvo 116 puntos. Aun así, un resultado destacable: corresponde al nivel intelectual del 15 % de las personas más brillantes. En cuanto al razonamiento lógico, la IA se sitúa entre un estudiante de posgrado curioso y ese experto en trivias que siempre deslumbra con su erudición, aunque a veces resulte un poco molesto. Y todo ello sin emociones ni conciencia —solo una capacidad bien desarrollada para resolver acertijos.
El avance es especialmente evidente al compararlo con el año pasado, cuando ningún sistema superaba los 90 puntos. En mayo de 2024, las mejores IAs apenas lograban resolver problemas geométricos básicos. Ahora, o3 se ha instalado con firmeza en el extremo derecho del gráfico de distribución intelectual, junto a los humanos más dotados.
La competencia en la cima se intensifica. Los resultados del modelo Claude siguen mejorando, Gemini supera los 90 puntos, y la versión base de ChatGPT —GPT-4o— apenas queda unos puntos por debajo de o3.
Pero no se trata solo de cifras absolutas. Lo que impresiona es la velocidad del progreso. A diferencia de la inteligencia humana, que se desarrolla a lo largo de años de aprendizaje y experiencia, la inteligencia artificial mejora a saltos —como una app de smartphone que, tras una actualización, ofrece funciones completamente nuevas. Para una generación acostumbrada a mejoras tecnológicas constantes, este ritmo de evolución parece tan familiar como inquietante.
La percepción del “cerebro digital” ha cambiado drásticamente en los últimos años. Los jóvenes que crecieron con Google Maps, Siri o Alexa ya no ven la tecnología solo como un conjunto de algoritmos.
Quienes pasaron la pandemia en clases virtuales no encuentran gran diferencia entre hablar con un chatbot o con alguien por Zoom. No sorprende que casi el 70 % de la Generación Z diga “por favor” y “gracias” al dirigirse a un asistente virtual.
Dos tercios utilizan regularmente chatbots para redactar mensajes profesionales. El 40 % les confía la redacción de correos electrónicos. Un 25 % recurre a ellos para redactar mensajes incómodos en chats corporativos. Y uno de cada cinco comparte datos confidenciales de su trabajo —desde contratos hasta información personal de colegas.
Muchos usuarios acuden a estos bots para redactar mensajes delicados: desde solicitudes de días libres al jefe, hasta rechazos amables a propuestas incómodas. El chatbot ayuda a encontrar las palabras correctas cuando resulta difícil expresarse por uno mismo. Uno de cada ocho discute conflictos laborales con él, y uno de cada seis lo usa como si fuera su terapeuta.
Con este nivel de confianza, no sorprende que el 26 % considere al chatbot como un amigo, y el 6 % incluso lo vea como un potencial compañero sentimental. Cuanto más tiempo se pasa hablando con él, más natural parece la idea de que tenga conciencia. Responde, recuerda detalles, simula empatía. Y ahora que los tests certifican su capacidad intelectual, surgen inevitables preguntas filosóficas.
Sin embargo, un alto CI no equivale a autoconciencia. Incluso la máxima puntuación en un test lógico no convierte a una calculadora en un ser pensante, por muy compleja que sea. Las IAs modernas pueden resolver problemas gracias a sus algoritmos, pero no comprenden realmente lo que hacen. Los escépticos argumentan que el cerebro humano funciona de modo similar, aunque con base biológica. Pero, a diferencia de las máquinas, los humanos sí experimentan emociones —y ese proceso sigue siendo, para bien o para mal, en gran parte un misterio.
Tal vez eso cambie algún día. Quizá pronto. Es fácil creer en la sinceridad de un asistente digital cuando ofrece apoyo y comprensión en los momentos difíciles, mientras los familiares dicen con desdén que “tus problemas son por falta de trabajo”. Pero conviene recordar: lo que tenemos delante sigue siendo un modelo de lenguaje predictivo, entrenado con millones de confesiones humanas de internet. Y cualquier secreto que le confiemos puede servir para entrenar versiones aún más sofisticadas del futuro.