Google DeepMind ha annunciato il rilascio in anteprima del modello Gemini 2.5 Computer Use, una versione specializzata della suite Gemini 2.5 Pro progettata per consentire agli agenti AI di interagire direttamente con le interfacce grafiche. Disponibile tramite API su Google AI Studio e Vertex AI, il nuovo modello rappresenta un passo avanti verso agenti autonomi in grado di navigare, cliccare, digitare e gestire applicazioni come un essere umano.
Cosa รจ in grado di fare Gemini 2.5 Computer Use
Anche se molte applicazioni consentono l’integrazione tramite API, molte attivitร restano ancora legate a interfacce grafiche. Si pensi a compilazione di moduli, selezione di menu a tendina o accesso a siti web con autenticazione. Il modello Gemini 2.5 Computer Use รจ stato addestrato per affrontare proprio questi task superando i principali concorrenti nei benchmark, con latenze piรน basse e un’accuratezza superiore al 70%.
Il funzionamento avviene per cicli iterativi. L’agente riceve uno screenshot e la cronologia delle azioni recenti, elabora il contesto e restituisce un’azione, come cliccare, scrivere o scorrere, da eseguire. Dopo l’esecuzione, il sistema aggiorna lo stato dell’interfaccia e il ciclo riprende fino al completamento del compito o all’intervento dell’utente.
Sicurezza e applicazioni pratiche
Google ha integrato nel modello diversi livelli di sicurezza per evitare comportamenti indesiderati. Un servizio di verifica valuta i rischi prima che un’azione venga eseguita, mentre gli sviluppatori possono imporre delle conferme obbligatorie per operazioni ad alto impatto come transazioni economiche o accessi ai dati sensibili.
I team di sviluppo interni a Google utilizzano il modello per l’automazione dei test UI riducendo del 25% gli errori nei processi di validazione software. Alcuni partner avrebbero poi riportato degli incrementi di efficienza fino al 50% rispetto ai modelli concorrenti.

