Tecnologia

Macs turbinam IA local: Ollama usa MLX para velocidade incrível

Ollama aumentou significativamente o desempenho de IA local em Macs integrando a estrutura MLX da Apple, permitindo inferência de modelos de linguagem grande mais rápida, privada e off-line para usuários comuns.

DailyWiz Editorial··4 min leitura·889 visualizações
Macs turbinam IA local: Ollama usa MLX para velocidade incrível

Revolucionando a IA no dispositivo para usuários da Apple

Em um salto significativo para o crescente campo da inteligência artificial no dispositivo, Ollama, a popular estrutura de código aberto para execução local de grandes modelos de linguagem (LLMs), integrou a poderosa estrutura MLX da Apple. Esta atualização fundamental, lançada com Ollama v0.1.30 no final de maio de 2024, promete oferecer velocidade e eficiência sem precedentes para inferência de modelos de IA diretamente em Macs, mudando fundamentalmente a forma como os usuários da Apple interagem com IA avançada.

Durante anos, a execução de modelos sofisticados de IA exigiu recursos robustos de computação em nuvem ou hardware especializado. No entanto, com o advento do Apple Silicon e agora do suporte MLX da Ollama, esse paradigma está mudando rapidamente. Os usuários agora podem aproveitar todo o poder do hardware de seu Mac para executar modelos como Llama 3, Mistral ou Gemma do Google com capacidade de resposta notável, tudo sem conexão com a Internet ou incorrer em taxas de serviço de nuvem.

A vantagem técnica: Apple Silicon e MLX Synergy

O núcleo desta revolução de desempenho está na sinergia entre os chips da série M personalizados da Apple e sua estrutura de aprendizado de máquina dedicada, MLX. O Apple Silicon, conhecido por sua arquitetura de memória unificada e seu poderoso mecanismo neural, fornece uma base robusta para cargas de trabalho de IA. Ao contrário das arquiteturas tradicionais, onde as memórias de CPU e GPU são separadas, a memória unificada permite que todo o sistema acesse um único pool de memória de alta largura de banda, reduzindo drasticamente os gargalos de transferência de dados – um fator crítico para grandes modelos de IA.

MLX, desenvolvido pela Apple especificamente para seu silício, é uma estrutura de aprendizado de máquina de alto desempenho otimizada para computação em array. Ele foi projetado para ser flexível e fácil de usar, permitindo que os desenvolvedores criem e executem modelos de aprendizado de máquina com desempenho nativo em hardware Apple. Ao integrar o MLX, Ollama agora pode aproveitar diretamente essas otimizações de hardware, ignorando back-ends computacionais mais genéricos. Os primeiros benchmarks sugerem melhorias de desempenho de até 2x para determinados modelos em comparação com versões anteriores, com alguns usuários relatando velocidades de inferência sustentadas de 30 tokens por segundo em um MacBook Pro M3 Max executando um modelo de parâmetros de 7B.

Por que a IA local é uma virada de jogo para usuários comuns

As implicações desse aumento de velocidade e eficiência são de longo alcance, estendendo-se além dos desenvolvedores e entusiastas de IA até os usuários comuns de Mac. A capacidade de executar modelos de IA localmente oferece diversas vantagens atraentes:

  • Privacidade aprimorada: seus dados nunca saem do seu dispositivo. Isso é crucial para informações confidenciais, notas pessoais ou dados comerciais proprietários, eliminando preocupações sobre armazenamento em nuvem ou acesso de terceiros.
  • Acessibilidade off-line: trabalhe com modelos de IA em qualquer lugar, a qualquer hora, sem conexão com a Internet. Perfeito para viajantes, trabalhadores remotos ou ambientes com conectividade não confiável.
  • Economia de custos:Elimine taxas de assinatura recorrentes ou custos de pagamento por uso associados a serviços de IA baseados em nuvem. Depois que o modelo for baixado, ele poderá ser usado indefinidamente.
  • Personalização e controle: experimente diferentes modelos, ajuste-os ou até mesmo crie o seu próprio sem ser limitado por limitações de plataforma ou restrições de API.

Para um aluno resumindo trabalhos de pesquisa, um escritor fazendo brainstorming de novas ideias ou um programador depurando código, o imediatismo e a privacidade da IA local podem aumentar significativamente a produtividade e criatividade.

Macs recomendados para desempenho ideal de IA local

Embora qualquer Mac com Apple Silicon possa se beneficiar da integração MLX do Ollama, o desempenho aumenta com a potência e a memória do seu chip. Aqui estão algumas recomendações:

  • Nível básico (uso casual): Um MacBook Air M2 ou M3 com pelo menos 16 GB de memória unificada. Esta configuração é excelente para executar modelos menores de parâmetros de 7B para tarefas básicas como geração de texto ou resumo.
  • Médio (Prosumer/Desenvolvedor): Um MacBook Pro M3 Pro ou M3 Max com 32 GB ou 64 GB de memória unificada. Essas máquinas oferecem um impulso significativo, permitindo inferência mais rápida e a capacidade de executar confortavelmente modelos maiores de parâmetros de 13B ou até 30B. Ideal para assistência de codificação, criação avançada de conteúdo e análise de dados locais.
  • High-end (pesquisa de IA/usuários avançados): Mac Studio ou Mac Pro com chip M2 Ultra e 64 GB ou 128 GB de memória unificada. Essas potências podem lidar com os maiores modelos disponíveis com velocidade excepcional, adequado para desenvolvimento intensivo de IA, simulações complexas ou execução de vários modelos simultaneamente.

A principal conclusão é que mais memória unificada se traduz diretamente na capacidade de executar modelos maiores e mais capazes com melhor desempenho.

O caminho a seguir: uma revolução de IA local

A integração MLX de Ollama para Macs é mais do que apenas uma atualização de desempenho; é uma prova da tendência crescente de democratização da IA. À medida que o hardware continua a evoluir e as estruturas se tornam mais otimizadas, a fronteira entre a IA na nuvem e a IA local ficará ainda mais confusa. Este desenvolvimento permite que utilizadores individuais e pequenas empresas aproveitem a tecnologia de IA de ponta nos seus próprios termos, promovendo a inovação, melhorando a privacidade e abrindo uma nova fronteira para a computação pessoal. O futuro da IA, ao que parece, é cada vez mais pessoal e no dispositivo.

Recommended

* We may earn a commission from qualifying purchases at no extra cost to you.

Comments

No comments yet. Be the first!

Posts relacionados

Fronteira psicodélica da Austrália: terapia com MDMA para TEPT gera esperança, mas altos custos limitam o alcance

Fronteira psicodélica da Austrália: terapia com MDMA para TEPT gera esperança, mas altos custos limitam o alcance

O movimento pioneiro da Austrália para legalizar a terapia assistida por MDMA para o TEPT está a mostrar resultados notáveis, mas o seu elevado custo está a criar uma barreira significativa ao acesso.

Gigantes imobiliários enfrentam tempestade legal: Rightmove acusado de taxas excessivas

Gigantes imobiliários enfrentam tempestade legal: Rightmove acusado de taxas excessivas

O portal imobiliário online Rightmove enfrenta uma ação coletiva movida por centenas de agentes imobiliários, alegando que o líder de mercado cobra taxas exorbitantes e abusa de sua posição dominante.

Tems deslumbra no Tonight Show com performance emocionante de ‘What You Need’

Tems deslumbra no Tonight Show com performance emocionante de ‘What You Need’

Tems cativou o público no The Tonight Show com uma performance impressionante e despojada de 'What You Need', envolta em um glamoroso vestido branco prateado.

Yamal condena racismo “intolerável” no confronto Espanha-Egito

Yamal condena racismo “intolerável” no confronto Espanha-Egito

A sensação do futebol adolescente Lamine Yamal condenou veementemente os cânticos racistas dirigidos à seleção egípcia durante a partida Espanha-Egito em Barcelona, ​​chamando o abuso de "desrespeitoso e intolerável".

Café Noturno Associado a Comportamentos de Risco, Especialmente em Mulheres

Café Noturno Associado a Comportamentos de Risco, Especialmente em Mulheres

Uma nova pesquisa revela que consumir café à noite pode aumentar a impulsividade e o comportamento de risco, com as mulheres mostrando uma sensibilidade significativamente maior a esses efeitos.

Judith Rapoport, pioneira que desvendou os mistérios do TOC, morre aos 92 anos

Judith Rapoport, pioneira que desvendou os mistérios do TOC, morre aos 92 anos

Judith L. Rapoport, pioneira na compreensão do transtorno obsessivo-compulsivo (TOC), cujo best-seller de 1989, “O menino que não conseguia parar de se lavar”, trouxe a condição à consciência pública, morreu aos 92 anos.