Nuevo Mac Studio: la potencia de un centro de datos en su escritorio

Nuevo Mac Studio: la potencia de un centro de datos en su escritorio

Nvidia, hazte a un lado: Apple ha creado un monstruo para la inteligencia artificial.

image

Apple ha presentado el nuevo Mac Studio con el procesador M3 Ultra, capaz de ejecutar de forma autónoma modelos de inteligencia artificial de hasta 600 mil millones de parámetros, como DeepSeek R1 o Llama. Su principal ventaja es una memoria unificada sin precedentes de 512 GB, accesible simultáneamente por la GPU, el motor neuronal y el núcleo de cómputo central. Las ventas comenzarán el 12 de marzo de 2025.

Con un precio de 10 000 dólares, esta máquina es considerablemente más asequible que las opciones actuales. La GPU más potente para IA, la Nvidia H100, cuesta alrededor de 30 000 dólares y solo ofrece 80 GB de memoria de video.

"La cantidad de recursos disponibles comienza en 96 GB y puede ampliarse hasta 512 GB, es decir, medio terabyte", señala Apple. "Estos valores superan a las tarjetas gráficas de estación de trabajo más avanzadas, eliminando las limitaciones en tareas profesionales como renderizado 3D, efectos visuales y proyectos de inteligencia artificial".

Aunque en términos de potencia de cálculo el compacto Mac Studio no puede competir con sistemas multiprocesador, en la práctica, el factor determinante para el uso de modelos de IA (inferencia) es la cantidad de memoria disponible.

"Este dispositivo ha sido diseñado como una máquina monstruosa para IA, capaz de alojar un modelo completo en su RAM sin necesidad de dividirlo entre múltiples unidades", comenta el analista tecnológico canadiense Linus Sebastian.

Los entusiastas han utilizado computadoras Apple para experimentar con redes neuronales durante años, como una alternativa viable a las costosas soluciones de Nvidia. Antes, era necesario conectar varias máquinas: ejecutar el modelo Llama con 405 mil millones de parámetros requería cinco Mac Studio de la generación anterior, enlazados mediante interfaces relativamente lentas.

"La nueva configuración M3 Ultra Max, que ya está disponible para pedidos, ofrece por primera vez esta enorme cantidad de recursos en un solo chasis", destaca el canal de YouTube MaxTech.

Dev Nag, fundador de la plataforma de automatización QueryPal, está convencido: "La capacidad de ejecutar modelos de 600 mil millones de parámetros localmente representa una alternativa competitiva en mercados clave donde Nvidia ha dominado históricamente".

El enfrentamiento entre ambas compañías se remonta a la era de Steve Jobs, con disputas sobre posibles copias de tecnología. En 2008, el escándalo "Bumpgate" estalló debido a chips defectuosos de Nvidia en los MacBook, seguido de disputas sobre derechos de propiedad de tecnologías gráficas móviles. En respuesta, Apple optó por la independencia: primero colaboró con AMD, luego utilizó la infraestructura de Google para entrenar redes neuronales y, finalmente, desarrolló sus propios procesadores.

"Estos flujos de trabajo se benefician de la baja latencia y la privacidad mejorada que ofrece Apple. Aunque 10 000 dólares es un precio alto para el consumidor común, representa un punto de acceso asequible para estudios independientes y profesionales prosumer que, de otro modo, necesitarían clústeres de GPU mucho más costosos para obtener una memoria equivalente", explica Nag.

En el ámbito del entrenamiento de modelos, Nvidia sigue liderando gracias a sus núcleos tensoriales especializados y su altísimo ancho de banda: 3 TB/s frente a los 800 GB/s del M3 Ultra. Sin embargo, la arquitectura de Mac Studio, con un pool de memoria unificado, podría ser más eficiente en aplicaciones reales donde el tamaño del almacenamiento es el factor crítico.

Vladimir Kubitsky, de la empresa MacPaw, considera que este es un momento clave para la computación autónoma de IA. Sin embargo, aclara: "El M3 Ultra aún no representa una amenaza directa para Nvidia. Apple está optimizando sus dispositivos para inferencia local de IA, mientras que Nvidia domina el entrenamiento de modelos a escala de centros de datos y la inferencia en la nube".

La ejecución de modelos en hardware propio mejora la privacidad y la velocidad de respuesta, permitiendo integrar IA en diversas aplicaciones sin depender de la infraestructura en la nube. Según Kubitsky, esta tecnología podría potenciar asistentes digitales, sistemas médicos y herramientas profesionales sin necesidad de recurrir a recursos externos.

Así, la inteligencia artificial ya no es un privilegio exclusivo de los grandes centros de datos. En Hacker News, los expertos analizan el potencial del Mac Studio en la ejecución de DeepSeek R1 en un formato optimizado. "La versión Q4_K_M GGUF requiere 404 GB. Esta arquitectura, con 671 mil millones de parámetros, solo activa 37 mil millones en cada pasada, lo que sugiere una generación de 20-30 tokens por segundo", señala un especialista.

Proyecciones más optimistas, basadas en el ancho de banda del sistema (819 GB/s con una carga de 37 GB por token), estiman una producción de hasta 40-50 tokens por segundo. Las cifras exactas se conocerán tras el lanzamiento oficial.

¿Estás cansado de que Internet sepa todo sobre ti?

¡Únete a nosotros y hazte invisible!