back to top

Apple vuole rendere gli LLM più piccoli

Alcuni ricercatori di Apple hanno pubblicato un articolo intitolato "LLM in a flash: Efficient Large Language Model Inference with Limited Memory" nel quale viene descritto un sistema con cui memorizzare i dati necessari al funzionamento di un modello generativo all’interno dell’unità SSD di un device. Ciò renderebbe più efficienti i Large Language Model di dimensioni contenute.

Tecnicamente l’idea è quella di utilizzare l’SSD per sostituire la memoria RAM come riferimento per l’archiviazione dei dati. Stando ai risultati dei benchmark effettuati questa soluzione dovrebbe garantire una velocità di elaborazione nettamente superiore rispetto a quelle che si potrebbero ottenere tramite il caricamento su CPU o GPU.

In sostanza l’uso delle unità SSD porterebbe a velocità 4 o 5 volte superiori rispetto all’allocazione su CPU e addirittura a 20 o 25 volte superiori rispetto a quella su scheda grafica. In questo modo sarebbe più facile sviluppare LLM on-device e farli interagire con piattaforme come per esempio l’assistenze digitale intelligente Siri della stessa Apple.

Per ottenere questo risultato la Casa di Cupertino ha implementato un nuovo sistema di compressione che prende il nome di EELBERT. Grazie ad esso è possibile ridurre le dimensioni di un LLM senza perdita di dati fondamentali per il suo funzionamento e qualità degli output, il modello BERT di Google è stato reso ad esempio 15 volte più piccolo con una regressione minima.

Un’altra novità di Cupertino in tema di AI è il sistema STEER (Semantic Turn Extension-Expansion Recognition). Tale progetto è stato lanciato per il miglioramento di Siri fornendogli maggiori capacità di riconoscere il contesto di una richiesta, in questo modo l’assistente dovrebbe essere sia in grado di fornire risposte che di prevedere le domande successive.

Pubblicità
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

OpenAI lancia Sora per creare video con l’AI

OpenAI ha lanciato Sora, il suo modello di intelligenza...

Dia: un browser AI dai creatori di Arc

The Browser Company, già nota per il suo browser...

Death Clock: l’AI che prevede quando morirai

Death Clock è un'applicazione alimentata dall'intelligenza artificiale che cerca...

Aurora: la AI di X crea immagini con Grok

X ha annunciato l'imminente rilascio di Aurora, un generatore...

Recensioni su Google Chrome con l’AI

Il team di Google Chrome sta sperimentando una nuova...

Microsoft: non usiamo i vostri dati per le nostre AI

Microsoft ha voluto confermare che i dati degli utenti...
Pubblicità