Технологии

Mac с турбонаддувом для локального искусственного интеллекта: Оллама использует MLX для невероятной скорости

Оллама значительно повысил производительность локального искусственного интеллекта на компьютерах Mac за счет интеграции платформы Apple MLX, обеспечивающей более быстрый, более конфиденциальный и автономный вывод больших языковых моделей для обычных пользователей.

DailyWiz Editorial··4 мин чтения·889 просмотров
Mac с турбонаддувом для локального искусственного интеллекта: Оллама использует MLX для невероятной скорости

Революция искусственного интеллекта на устройствах для пользователей Apple

Сделав значительный скачок в развивающейся области искусственного интеллекта на устройствах, Ollama, популярная платформа с открытым исходным кодом для локального запуска больших языковых моделей (LLM), интегрировала мощную платформу MLX от Apple. Это ключевое обновление, выпущенное вместе с Ollama v0.1.30 в конце мая 2024 года, обещает обеспечить беспрецедентную скорость и эффективность вывода моделей ИИ непосредственно на компьютерах Mac, фундаментально меняя способ взаимодействия пользователей Apple с продвинутым ИИ.

В течение многих лет для запуска сложных моделей ИИ требовались огромные ресурсы облачных вычислений или специализированное оборудование. Однако с появлением Apple Silicon, а теперь и поддержки MLX от Олламы, эта парадигма быстро меняется. Теперь пользователи могут использовать всю мощь аппаратного обеспечения своего Mac для запуска таких моделей, как Llama 3, Mistral или Google Gemma, с поразительной оперативностью, причем без подключения к Интернету и оплаты облачных услуг.

Техническое преимущество: синергия Apple Silicon и MLX

Суть этой революции в производительности лежит в синергии между специально разработанными чипами Apple серии M и ее специальной структурой машинного обучения MLX. Apple Silicon, known for its unified memory architecture and powerful neural engine, provides a robust foundation for AI workloads. В отличие от традиционных архитектур, в которых память ЦП и графического процессора разделены, унифицированная память позволяет всей системе получать доступ к единому пулу памяти с высокой пропускной способностью, что резко сокращает узкие места при передаче данных — критический фактор для больших моделей искусственного интеллекта.

MLX, разработанный Apple специально для ее микросхем, представляет собой высокопроизводительную среду машинного обучения, оптимизированную для вычислений на массивах. Он создан гибким и удобным для пользователя, позволяя разработчикам создавать и запускать модели машинного обучения с собственной производительностью на оборудовании Apple. Интегрировав MLX, Оллама теперь может напрямую использовать эти аппаратные оптимизации, минуя более общие вычислительные механизмы. Ранние тесты показывают повышение производительности до 2 раз для некоторых моделей по сравнению с предыдущими версиями. Некоторые пользователи сообщают о стабильной скорости вывода 30 токенов в секунду на MacBook Pro M3 Max с моделью с параметрами 7B.

Почему локальный искусственный интеллект меняет правила игры для обычных пользователей

Последствия такого повышения скорости и эффективности имеют далеко идущие последствия, простираясь не только на разработчиков и энтузиастов искусственного интеллекта, но и на обычных пользователей Mac. Возможность локального запуска моделей искусственного интеллекта дает несколько убедительных преимуществ:

  • Повышенная конфиденциальность: Ваши данные никогда не покидают ваше устройство. Это имеет решающее значение для конфиденциальной информации, личных заметок или коммерческих данных, устраняя проблемы, связанные с облачным хранилищем или доступом третьих лиц.
  • Доступность в автономном режиме: Работайте с моделями ИИ где угодно и когда угодно, без подключения к Интернету. Идеально подходит для путешественников, удаленных сотрудников и мест с ненадежной связью.
  • Экономия средств:Устраните регулярную абонентскую плату или затраты на оплату по факту использования, связанные с облачными услугами искусственного интеллекта. После загрузки модели ее можно использовать бесплатно в течение неограниченного срока.
  • Настройка и контроль: Экспериментируйте с различными моделями, настраивайте их или даже создавайте свои собственные, не ограничиваясь ограничениями платформы или API.

Для студента, обобщающего исследовательские работы, писателя, проводящего мозговой штурм новых идей, или программиста, отлаживающего код, оперативность и конфиденциальность локального искусственного интеллекта могут значительно повысить производительность и креативность.

Рекомендуемые компьютеры Mac для оптимальной производительности локального искусственного интеллекта

Хотя любой Mac с Apple Silicon может извлечь выгоду из интеграции MLX от Ollama, производительность масштабируется в зависимости от мощности и памяти вашего чипа. Вот несколько рекомендаций:

  • Начальный уровень (для повседневного использования): MacBook Air M2 или M3 с объемом встроенной памяти не менее 16 ГБ. Эта конфигурация отлично подходит для запуска небольших моделей с параметрами 7B для выполнения базовых задач, таких как генерация текста или обобщение.
  • Средний уровень (профессионал/разработчик): MacBook Pro M3 Pro или M3 Max с 32 ГБ или 64 ГБ единой памяти. Эти машины обеспечивают значительный прирост скорости, обеспечивая более быстрый вывод и возможность комфортно запускать более крупные модели с параметрами 13 или даже 30 бит. Идеально подходит для помощи в программировании, создании расширенного контента и анализа локальных данных.
  • Высококлассный компьютер (исследования искусственного интеллекта/опытные пользователи): Mac Studio или Mac Pro с чипом M2 Ultra и 64 или 128 ГБ единой памяти. Эти мощные устройства могут работать с самыми крупными доступными моделями с исключительной скоростью, подходящими для интенсивной разработки искусственного интеллекта, сложного моделирования или одновременного запуска нескольких моделей.

Ключевой вывод заключается в том, что более унифицированная память напрямую приводит к возможности запускать более крупные и функциональные модели с более высокой производительностью.

Путь вперед: локальная революция искусственного интеллекта

Интеграция MLX компании Ollama для компьютеров Mac — это больше, чем просто повышение производительности; это свидетельство растущей тенденции демократизации ИИ. По мере того, как аппаратное обеспечение продолжает развиваться, а платформы становятся все более оптимизированными, граница между облачным ИИ и локальным ИИ будет еще больше стираться. Эта разработка дает возможность отдельным пользователям и малым предприятиям использовать передовые технологии искусственного интеллекта на своих собственных условиях, способствуя инновациям, повышая конфиденциальность и открывая новые горизонты для персональных компьютеров. Судя по всему, будущее искусственного интеллекта становится все более персонализированным и привязанным к устройствам.

Recommended

* We may earn a commission from qualifying purchases at no extra cost to you.

Поделиться

Comments

No comments yet. Be the first!

Похожие статьи

Глубокие сокращения Oracle сигнализируют о тревоге в технологическом секторе на фоне стратегических изменений

Глубокие сокращения Oracle сигнализируют о тревоге в технологическом секторе на фоне стратегических изменений

Сообщается, что технологический гигант Oracle сокращает тысячи рабочих мест по всему миру, что сигнализирует о значительной стратегической перестройке на фоне более широкой экономической неопределенности и острой конкуренции в сфере облачных технологий.

Звезда Sweet Home Со Хе Вон тихо связала себя узами брака с партнером, не являющимся знаменитостью, в начале этого года

Звезда Sweet Home Со Хе Вон тихо связала себя узами брака с партнером, не являющимся знаменитостью, в начале этого года

Актриса Со Хе Вон, известная своими ролями в таких популярных драмах, как «Милый дом» и «Деловое предложение», вышла замуж за своего партнера, не являющегося знаменитостью, на частной церемонии в начале этого года.

Мастер-класс Дончича в марте: 600 очков способствуют доминированию Mavericks

Мастер-класс Дончича в марте: 600 очков способствуют доминированию Mavericks

Лука Дончич завершил незабываемый март 2024 года, набрав 600 очков и приведя «Даллас Маверикс» к сенсационному рекорду 15-2, радикально изменив их планы на плей-офф.

Психоделический рубеж Австралии: терапия МДМА при посттравматическом стрессовом расстройстве вселяет надежду, но высокая стоимость ограничивает возможности

Психоделический рубеж Австралии: терапия МДМА при посттравматическом стрессовом расстройстве вселяет надежду, но высокая стоимость ограничивает возможности

Новаторский шаг Австралии по легализации терапии посттравматического стресса с помощью МДМА показывает замечательные результаты, но ее высокая стоимость создает значительный барьер для доступа.

Гиганты недвижимости столкнулись с юридической бурей: Rightmove обвиняют в завышении комиссий

Гиганты недвижимости столкнулись с юридической бурей: Rightmove обвиняют в завышении комиссий

Интернет-портал недвижимости Rightmove столкнулся с коллективным иском со стороны сотен агентов по недвижимости, утверждая, что лидер рынка взимает непомерные комиссии и злоупотребляет своим доминирующим положением.

Темс ослепляет на сегодняшнем шоу проникновенным выступлением «What You Need»

Темс ослепляет на сегодняшнем шоу проникновенным выступлением «What You Need»

Темс покорила публику на The Tonight Show потрясающим, непринужденным исполнением песни «What You Need», облаченной в гламурное серебристо-белое платье.