← Torna indietro 💻 Tecnologia

L'Intelligenza Artificiale "fatta in casa" mette il turbo sui Mac: Ollama integra il framework Apple MLX

Running Local Models on Macs Gets Faster with Ollama's MLX Support

31. marzo 2026 · Ars Technica
L'Intelligenza Artificiale

Per chi desidera sperimentare con l'Intelligenza Artificiale senza dipendere dai server in cloud, ci sono ottime notizie. Ollama, uno dei software più popolari per far girare i modelli linguistici di grandi dimensioni (LLM) direttamente sul proprio computer, ha appena fatto un importante salto di qualità. L'ultimo aggiornamento introduce infatti il supporto ufficiale a MLX, il framework open source sviluppato da Apple appositamente per ottimizzare i calcoli di machine learning sui propri dispositivi.

All'atto pratico, per gli utenti Mac dotati di processori Apple Silicon (dal chip M1 in poi), questa novità si traduce in un drastico incremento delle prestazioni. Il software ora dialoga in modo molto più diretto ed efficiente con l'hardware di Cupertino. Ma le migliorie non riguardano solo l'ecosistema Apple: gli sviluppatori hanno ottimizzato la gestione della memoria cache e introdotto la compatibilità con il formato di compressione NVFP4 di Nvidia. Questo accorgimento permette di "snellire" i modelli, riducendo pesantemente il consumo di memoria RAM senza sacrificare la qualità e la precisione delle risposte.

L'aggiornamento arriva con un tempismo perfetto. L'elaborazione dell'IA "in locale" sta infatti uscendo dalla nicchia dei ricercatori e degli smanettoni per conquistare un pubblico sempre più vasto, attratto dalla garanzia di maggiore privacy e dal controllo totale sui propri dati. A fare da traino a questa rivoluzione silenziosa sono fenomeni come OpenClaw, un modello open source che ha letteralmente spopolato su GitHub superando le 300.000 stelle. Tra esperimenti virali come il progetto Moltbook e una vera e propria febbre tecnologica scoppiata in Cina, trasformare il proprio portatile in un cervello digitale personale non è mai stato così allettante e alla portata di tutti.

Articolo originale: https://arstechnica.com/apple/2026/03/running-local-models-on-macs-gets-faster-w