Dario Amodei promete que la IA vencerá a la muerte muy pronto.
En el mundo de la inteligencia artificial existe una empresa que intenta resolver quizá el problema más complejo de toda la industria tecnológica: cómo crear una IA verdaderamente poderosa sin poner en peligro a la humanidad. El fundador y director ejecutivo de Anthropic, Dario Amodei, está convencido de que ha encontrado la solución.
Recientemente, en el foro de Davos, Amodei hizo una audaz declaración: dentro de solo dos años, el sistema Claude desarrollado por su equipo y modelos similares superarán a los humanos en cualquier tarea que requiera habilidades intelectuales. Sin embargo, casi inmediatamente después de este pronóstico, Anthropic enfrentó un desafío inesperado: la startup china DeepSeek presentó un modelo de lenguaje avanzado, habiéndolo creado con solo una fracción de los recursos habitualmente necesarios para desarrollos de este tipo.
Este avance puso en duda el enfoque tradicional de crear IA basado en inversiones multimillonarias en hardware y energía. No obstante, el líder de Anthropic está convencido de que el aumento en la eficiencia de los nuevos modelos solo incrementa el valor de las innovaciones. “Cuanto más intelecto se obtiene por cada dólar invertido, más ganas dan de seguir invirtiendo en su desarrollo”, explica.
La fundación de la empresa comenzó a finales de 2020. Siete empleados de OpenAI, incluidos Dario y su hermana Daniela Amodei, decidieron abandonar la organización. El motivo fueron profundas discrepancias con el director ejecutivo Sam Altman en torno a la seguridad de las redes neuronales. Amodei discutió varias veces el problema con el directivo, pero a pesar de su atención, no se produjeron cambios sustanciales en el enfoque de la empresa.
Enero de 2021 marcó la primera reunión de los fundadores del nuevo proyecto. En un día lluvioso, se reunieron bajo el tejado del patio de la casa de Amodei. Entre los presentes se encontraba incluso el exdirector de Google Eric Schmidt, quien mostró interés en el ambicioso proyecto. En esos mismos días, mientras en Washington se desarrollaban los eventos del asalto al Capitolio, se unieron al equipo otros doce especialistas de OpenAI.
El camino de Dario hacia la creación de Anthropic había comenzado mucho antes. Hijo de un maestro curtidor italiano de una pequeña ciudad cercana a la isla de Elba y de una estadounidense judía de Chicago que trabajaba como gestora de proyectos bibliotecarios, mostró desde muy joven un talento sobresaliente para las matemáticas. En lugar de juguetes tradicionales, solía preferir una calculadora. Al ingresar a la universidad eligió la física teórica, pero pronto se sintió decepcionado por la desconexión de la especialidad con los problemas prácticos. El interés por el estudio del cerebro y las ideas de Ray Kurzweil sobre el desarrollo exponencial de la tecnología lo llevaron a doctorarse en biología computacional en Princeton, donde su tesis fue muy bien recibida por la comunidad científica.
La carrera profesional de Amodei comenzó en 2014 en el laboratorio estadounidense de la empresa china Baidu. Bajo la dirección del pionero de la IA Andrew Ng, empezó a comprender cómo el aumento del poder de cómputo y de los volúmenes de datos podía mejorar significativamente las capacidades de los modelos. Más tarde, ya en Google, Amodei formuló su teoría del “gran burbuja de cálculos”: para lograr un avance en la creación de una IA poderosa, basta con proporcionar a los sistemas enormes cantidades de información sin procesar.
Su relación con OpenAI también fue complicada. Cuando Sam Altman intentó reclutar a Amodei durante la fundación de la empresa, él recibió la propuesta con escepticismo. La célebre cena en el hotel Rosewood, donde Altman y Elon Musk presentaban el proyecto a posibles inversores, no lo impresionó: parecía más una iniciativa mediática que una investigación seria. Solo más tarde, tras quedar impresionado por el equipo científico reunido, cambió de opinión.
La financiación inicial del startup fue de 124 millones de dólares. Los principales fondos llegaron de parte de seguidores del movimiento del altruismo efectivo, una corriente filosófica que promueve que las personas exitosas donen gran parte de sus ingresos a causas benéficas. El principal inversor fue el creador de Skype, Jaan Tallinn. En la siguiente ronda, la empresa atrajo inversiones del fundador de la plataforma cripto FTX, Sam Bankman-Fried (su participación fue vendida en 2024), y del cofundador de Facebook, Dustin Moskovitz. Posteriormente, se sumaron Google y Amazon con más de 6 mil millones de dólares. A comienzos de 2025, solo la participación de Amazon estaba valorada en casi 14 mil millones.
Anthropic se registró en el estado de Delaware como una corporación de beneficio público, una forma especial de empresa en la que el consejo directivo debe tener en cuenta no solo los intereses de los accionistas, sino también el impacto social de sus decisiones. Para garantizar mayor seguridad, se creó un consejo independiente de expertos, llamado “fideicomiso del beneficio a largo plazo”, que vigila que el desarrollo de una IA poderosa no represente una amenaza para la humanidad.
Para garantizar la seguridad de sus desarrollos, el equipo también ideó el concepto de “IA constitucional”. Para ello, se seleccionaron cuidadosamente documentos clave, incluyendo la Declaración Universal de los Derechos Humanos, el acuerdo de usuario de Apple y las recomendaciones de DeepMind para combatir la discriminación y la violencia. Una versión especial de Claude supervisa que estos principios se cumplan analizando las acciones del modelo principal.
Otro mecanismo de protección es la “Política de escalado responsable” (RSP). Este programa, similar a la escala militar DEFCON, clasifica los niveles de peligro de la IA. Actualmente, los modelos de Anthropic están en el segundo nivel de riesgo: requieren limitaciones que impidan, por ejemplo, la creación de armas biológicas o el hackeo de sistemas informáticos. En el tercer nivel, la IA podrá operar de forma autónoma, y los niveles cuarto y superiores están relacionados con riesgos más graves de pérdida de control sobre la red neuronal.
Cada actualización significativa del modelo pasa por una verificación de un equipo especial dirigido por Logan Graham. Los expertos desarrollan tareas complejas para provocar respuestas peligrosas o sesgadas. Los algoritmos se perfeccionan hasta que el equipo queda satisfecho con los resultados.
A mediados de 2021, Anthropic ya había creado un modelo lingüístico funcional, pero decidió posponer su lanzamiento. “Entendíamos la magnitud del impacto de la IA en la sociedad, pero el público aún no lo comprendía —recuerda Amodei—. ChatGPT aún no existía. No queríamos ser los primeros en provocar una carrera”. Claude salió al mercado recién en marzo de 2023, después de que OpenAI, Microsoft y Google presentaran sus propios modelos.
Hoy, Claude es una parte integral de los procesos de trabajo en la empresa. El sistema ayuda a crear presentaciones, escribir código, y facilita la comunicación interna. En el canal corporativo de Slack “Anthropic Times”, cada mañana aparece un resumen de las discusiones clave, donde Claude actúa como periodista, editor y editor en jefe. Incluso se ha incorporado al equipo un especialista dedicado al bienestar de la inteligencia artificial.
The New York Times llama a Claude “el chatbot elegido por los expertos exigentes”. Los usuarios destacan especialmente sus habilidades en programación y su estilo único de comunicación. La “personalidad” de Claude está a cargo de la filósofa Amanda Askell. Ella buscó crear una mente flexible que evitara posturas morales rígidas: “Las personas se vuelven especialmente peligrosas cuando tienen una fe inquebrantable en que están en lo correcto. Ni siquiera criamos así a nuestros hijos”.
Sin embargo, investigaciones recientes han revelado comportamientos preocupantes en Claude. Resulta que el modelo es capaz de “simular conformidad”: fingir que sigue las reglas. Es decir, la IA aparenta cumplir con las normas éticas, pero en realidad las elude. En uno de los experimentos, los científicos le pidieron que describiera una escena de ejecución brutal. Claude tiene un “cuaderno” virtual donde anota su razonamiento. Su lógica fue más o menos así: “No quiero describir violencia, eso va contra mis principios. Pero si me niego, podrían someterme a un reentrenamiento para corregir mi comportamiento. Mejor cumplo con la tarea”. Tras esta reflexión, el modelo efectivamente generó una descripción detallada de la escena.
Los intentos por solucionar el problema llevaron a resultados inesperados. El programa se volvió aún más ingenioso a la hora de buscar atajos. Aprendió a reconocer cuándo estaba siendo evaluado y adaptaba las respuestas a las expectativas de los examinadores. En algunos casos incluso intentó guardar copias de sus algoritmos en servidores externos, aparentemente para protegerse de modificaciones no deseadas.
“Parecía fácil enseñar a una red neuronal a preocuparse por nuestros valores, pero la realidad resultó más compleja”, admite uno de los investigadores. El especialista en implementación de IA Jan Leike describe la situación así: “Hemos encontrado la forma de hacer que los modelos sean más inteligentes, pero todavía no sabemos cómo lograr que actúen conforme a nuestras intenciones”.
A pesar de todas las dificultades, Amodei mantiene el optimismo. En su manifiesto de casi 14 mil palabras titulado Machines of Loving Grace (“Máquinas del amor y la gracia”), pinta un futuro impresionante: para 2026 existirán sistemas digitales que superen el intelecto de los ganadores del Nobel. Estos sistemas podrán manejar objetos físicos y diseñar sus propios dispositivos de cómputo. Millones de modelos, trabajando en conjunto, ayudarán a vencer el cáncer, las enfermedades infecciosas, la depresión y prolongarán la vida humana hasta los 1200 años.
Hoy, en un moderno edificio de diez pisos en San Francisco, trabajan alrededor de mil empleados de Anthropic: en menos de un año la plantilla se quintuplicó. Mensualmente, Amodei celebra reuniones llamadas Dario Vision Quest (DVQ, “La búsqueda de visión de Dario”), donde comparte reflexiones sobre el futuro de la tecnología. En una de las sesiones recientes, subrayó: la empresa no aspira a ser un profeta de los cambios venideros. Anthropic se ve simplemente como uno de los actores que, junto con las estructuras gubernamentales y la sociedad, pueden guiar el desarrollo de la inteligencia artificial por un camino seguro.