Come sottolineato da Google, Gemini Robotics On-Device rappresenta la nuova frontiera dell’AI applicata ai dispositivi robotici locali. Si tratta di un passo avanti decisivo nel portare la potenza dei modelli multimodali, quindi in grado di comprendere immagini, linguaggio e azioni, direttamente all’interno dei robot. Senza dipendere da una connessione di rete.
Gemini Robotics On-Device: robot “intelligenti” senza una connessione ad Internet
Dopo il primo lancio di Gemini Robotics, che risale a marzo 2025, Google ha deciso di presentare una versione ottimizzata per funzionare localmente chiamata, appunto, Gemini Robotics On-Device. Questo modello dovrebbe garantire un’elevata capacitร di generalizzazione e permettere ai robot di eseguire task differenti adattandosi rapidamente a nuove mansioni grazie a poche dimostrazioni. Dovrebbero essere sufficienti tra 50 e 100 esempi legati ad un compito.
L’esecuzione diretta sul dispositivo elimina i problemi di latenza e rende il sistema ideale anche in ambienti con connettivitร intermittente o assente. Ciรฒ amplia i possibili scenari d’uso, dall’industria alla logistica fino agli ambienti domestici.
Risultati dei test e sicurezza
I test avrebbero dimostrato che Gemini Robotics On-Device รจ particolarmente abile nell’interpretare istruzioni complesse e nella manipolazione avanzata. Come per esempio chiudere zip, piegare indumenti o assemblare oggetti. Il tutto avvicinandosi alle prestazioni del modello Gemini Robotics cloud based.
Il modello รจ stato rilasciato inizialmente ad un gruppo selezionato di tester in attesa di feedback che ne garantiscano l’affidabilitร e un impatto sociale quanto piรน positivo possibile.
Il Responsibility & Safety Council della compagnia esaminerร tutte le valutazioni, fornendo indicazioni da integrare nello sviluppo del modello per massimizzare ulteriormente i benefici e ridurre al minimo i rischi.
Per favorire l’adozione e la sperimentazione del progetto Gemini Robotics offre anche un SDK (Software Development Kit) appositamente dedicato. Gli sviluppatori possono cosรฌ testare il modello nei propri ambienti, effettuare delle simulazioni fisiche e adattarlo a compiti specifici grazie al fine-tuning.