Tra le grandi novità del lancio di Intel Meteor Lake c’è sicuramente il nuovo design “a tile” delle CPU next-gen, che favorisce una struttura ancora più eterogenea e personalizzabile sulla base dei singoli modelli.
Una di queste tile sulle CPU Meteor Lake è dedicata all’accelerazione dell’IA in locale, una possibilità che consentirebbe di eseguire le proprie istanze senza dover necessariamente condividere informazioni personali con i supercomputer dei giganti dell’intelligenza artificiale.
Molto interessante, a questo proposito, è stato il recente rilascio da parte di Intel della NPU Acceleration Library, una libreria open source disponibile su GitHub per gli sviluppatori che consente di utilizzare modelli compatti di intelligenza artificiale, proprio per l’esecuzione in locale.
Il riferimento è chiaramente a modelli di piccole dimensioni come Gemma di Google nella versione da 2 miliardi di parametri (ecco le principali differenze tra Google Gemma e Gemini) o TinyLLaMA.
A mostrarlo in azione ci ha pensato Tony Mongkolsmai di Intel, a bordo di un MSI Prestige 16 AI Evo. Il Software Architect di Intel ha spiegato che la libreria è perfettamente compatibile con Windows ma supporta anche Linux. Chiaramente si tratta di un rilascio specifico per sviluppatori, mentre per gli utenti consumer si continuerà a fare riferimento a tool che utilizzano OpenVINO o DirectML.