Tecnología

Los Mac aceleran la IA local: Ollama recurre a MLX para lograr una velocidad increíble

Ollama ha mejorado significativamente el rendimiento de la IA local en Mac mediante la integración del marco MLX de Apple, lo que permite una inferencia de modelos de lenguaje grandes más rápida, más privada y fuera de línea para los usuarios cotidianos.

DailyWiz Editorial··4 min lectura·889 vistas
Los Mac aceleran la IA local: Ollama recurre a MLX para lograr una velocidad increíble

Revolucionando la IA en dispositivos para usuarios de Apple

En un salto significativo para el floreciente campo de la inteligencia artificial en dispositivos, Ollama, el popular marco de código abierto para ejecutar grandes modelos de lenguaje (LLM) localmente, ha integrado el potente marco MLX de Apple. Esta actualización fundamental, lanzada con Ollama v0.1.30 a finales de mayo de 2024, promete ofrecer una velocidad y eficiencia sin precedentes para la inferencia de modelos de IA directamente en Mac, cambiando fundamentalmente la forma en que los usuarios de Apple interactúan con la IA avanzada.

Durante años, ejecutar modelos sofisticados de IA exigió importantes recursos de computación en la nube o hardware especializado. Sin embargo, con la llegada de Apple Silicon y ahora el soporte MLX de Ollama, ese paradigma está cambiando rápidamente. Los usuarios ahora pueden aprovechar toda la potencia del hardware de su Mac para ejecutar modelos como Llama 3, Mistral o Gemma de Google con una capacidad de respuesta notable, todo sin una conexión a Internet ni incurrir en tarifas de servicios en la nube.

La ventaja técnica: Apple Silicon y MLX Synergy

El núcleo de esta revolución del rendimiento radica en la sinergia entre los chips de la serie M diseñados a medida de Apple y su marco de aprendizaje automático dedicado, MLX. Apple Silicon, conocida por su arquitectura de memoria unificada y su potente motor neuronal, proporciona una base sólida para las cargas de trabajo de IA. A diferencia de las arquitecturas tradicionales donde la memoria de CPU y GPU están separadas, la memoria unificada permite que todo el sistema acceda a un único grupo de memoria de gran ancho de banda, lo que reduce drásticamente los cuellos de botella en la transferencia de datos, un factor crítico para los grandes modelos de IA.

MLX, desarrollado por Apple específicamente para su silicio, es un marco de aprendizaje automático de alto rendimiento optimizado para la computación de matrices. Está diseñado para ser flexible y fácil de usar, lo que permite a los desarrolladores crear y ejecutar modelos de aprendizaje automático con rendimiento nativo en hardware de Apple. Al integrar MLX, Ollama ahora puede aprovechar directamente estas optimizaciones de hardware, evitando backends computacionales más genéricos. Los primeros puntos de referencia sugieren mejoras de rendimiento de hasta el doble para ciertos modelos en comparación con versiones anteriores, y algunos usuarios informaron velocidades de inferencia sostenidas de 30 tokens por segundo en una MacBook Pro M3 Max con un modelo de parámetros 7B.

Por qué la IA local cambia las reglas del juego para los usuarios cotidianos

Las implicaciones de este aumento de velocidad y eficiencia son de gran alcance y se extienden más allá de los desarrolladores y entusiastas de la IA hasta los usuarios cotidianos de Mac. La capacidad de ejecutar modelos de IA localmente ofrece varias ventajas convincentes:

  • Privacidad mejorada: sus datos nunca salen de su dispositivo. Esto es crucial para información confidencial, notas personales o datos comerciales patentados, lo que elimina las preocupaciones sobre el almacenamiento en la nube o el acceso de terceros.
  • Accesibilidad sin conexión: trabaje con modelos de IA en cualquier lugar, en cualquier momento y sin conexión a Internet. Perfecto para viajeros, trabajadores remotos o entornos con conectividad poco confiable.
  • Ahorro de costos:Elimine las tarifas de suscripción recurrentes o los costos de pago por uso asociados con los servicios de inteligencia artificial basados ​​en la nube. Una vez que se descarga el modelo, se puede utilizar de forma gratuita de forma indefinida.
  • Personalización y control: experimente con diferentes modelos, ajústelos o incluso cree el suyo propio sin verse limitado por las limitaciones de la plataforma o las restricciones de API.

Para un estudiante que resume trabajos de investigación, un escritor que genera ideas novedosas o un programador que depura código, la inmediatez y privacidad de la IA local pueden mejorar significativamente la productividad y creatividad.

Macs recomendadas para un rendimiento óptimo de la IA local

Si bien cualquier Mac con Apple Silicon puede beneficiarse de la integración MLX de Ollama, el rendimiento aumenta con la potencia y la memoria de su chip. Aquí tienes algunas recomendaciones:

  • Nivel básico (uso casual): Un MacBook Air M2 o M3 con al menos 16 GB de memoria unificada. Esta configuración es excelente para ejecutar modelos de parámetros 7B más pequeños para tareas básicas como generación o resumen de texto.
  • Gama media (prosumidor/desarrollador): una MacBook Pro M3 Pro o M3 Max con 32 GB o 64 GB de memoria unificada. Estas máquinas ofrecen un impulso significativo, permitiendo una inferencia más rápida y la capacidad de ejecutar cómodamente modelos de parámetros más grandes de 13B o incluso 30B. Ideal para asistencia de codificación, creación de contenido avanzado y análisis de datos locales.
  • Gama alta (investigación de IA/usuarios avanzados): Mac Studio o Mac Pro con un chip M2 Ultra y 64 GB o 128 GB de memoria unificada. Estas potencias pueden manejar los modelos más grandes disponibles con una velocidad excepcional, adecuadas para el desarrollo intensivo de IA, simulaciones complejas o la ejecución de múltiples modelos simultáneamente.

La conclusión clave es que una memoria más unificada se traduce directamente en la capacidad de ejecutar modelos más grandes y más capaces con mejor rendimiento.

El camino por delante: una revolución local de la IA

La integración MLX de Ollama para Mac es más que una simple mejora del rendimiento; es un testimonio de la creciente tendencia a democratizar la IA. A medida que el hardware continúa evolucionando y los marcos se optimizan, el límite entre la IA en la nube y la IA local se difuminará aún más. Este desarrollo permite a los usuarios individuales y a las pequeñas empresas aprovechar la tecnología de IA de vanguardia en sus propios términos, fomentando la innovación, mejorando la privacidad y abriendo una nueva frontera para la informática personal. Al parecer, el futuro de la IA es cada vez más personal y está en el dispositivo.

Recommended

* We may earn a commission from qualifying purchases at no extra cost to you.

Comments

No comments yet. Be the first!

Artículos relacionados

Australia desbloquea décadas de cultura con un proyecto de ley histórico sobre obras huérfanas

Australia desbloquea décadas de cultura con un proyecto de ley histórico sobre obras huérfanas

El Parlamento de Australia aprobó el proyecto de ley de enmienda de derechos de autor de 2026, que introduce un innovador plan de "obras huérfanas" que promete desbloquear vastos archivos culturales y estimular las industrias creativas.

Los profundos recortes de Oracle señalan el nerviosismo del sector tecnológico en medio de un cambio estratégico

Los profundos recortes de Oracle señalan el nerviosismo del sector tecnológico en medio de un cambio estratégico

Se informa que el gigante tecnológico Oracle está eliminando miles de puestos de trabajo en todo el mundo, lo que indica un importante realineamiento estratégico en medio de incertidumbres económicas más amplias y una intensa competencia en la nube.

La estrella de Sweet Home, Seo Hye Won, se casa silenciosamente con una pareja no famosa a principios de este año

La estrella de Sweet Home, Seo Hye Won, se casa silenciosamente con una pareja no famosa a principios de este año

Se reveló que la actriz Seo Hye Won, conocida por sus papeles en exitosos dramas como 'Sweet Home' y 'A Business Proposal', se casó con su pareja no famosa en una ceremonia privada a principios de este año.

Clase magistral de marzo de Doncic: 600 puntos impulsan el dominio de los Mavericks

Clase magistral de marzo de Doncic: 600 puntos impulsan el dominio de los Mavericks

Luka Doncic culminó un marzo de 2024 inolvidable, anotando 600 puntos y llevando a los Dallas Mavericks a un sensacional récord de 15-2, remodelando dramáticamente sus aspiraciones de playoffs.

La frontera psicodélica de Australia: la terapia con MDMA para el trastorno de estrés postraumático genera esperanza, pero los altos costos limitan su alcance

La frontera psicodélica de Australia: la terapia con MDMA para el trastorno de estrés postraumático genera esperanza, pero los altos costos limitan su alcance

La medida pionera de Australia para legalizar la terapia asistida por MDMA para el trastorno de estrés postraumático está mostrando resultados notables, pero su alto costo está creando una barrera importante para el acceso.

Los gigantes inmobiliarios se enfrentan a una tormenta legal: Rightmove es acusado de tarifas excesivas

Los gigantes inmobiliarios se enfrentan a una tormenta legal: Rightmove es acusado de tarifas excesivas

El portal inmobiliario en línea Rightmove se enfrenta a una demanda colectiva de cientos de agentes inmobiliarios, alegando que el líder del mercado cobra tarifas exorbitantes y abusa de su posición dominante.