El Silencio de los Chips: Cómo el M5 Max Reconfigura la IA Local
El M5 Max establece un nuevo estándar en IA local, superando al M3 Max en inferencia de modelos de lenguaje grandes (LLM), especialmente en contextos largos y cargas de trabajo agenticas. Las pruebas con Qwen 3.5 y oMLX revelan mejoras de hasta 1.7x en inferencia general, casi 3x en contextos de 65K tokens y hasta 4x en prefill, impulsadas por su mayor ancho de banda (614 GB/s) y escalabilidad. El artículo subraya la importancia de los parámetros activos en la velocidad de inferencia y posiciona al M5 Max como un catalizador para la democratización de la IA personal.

