back to top

L’AI open source รจ una nuova minaccia per la sicurezza?

Secondo un’indagine di SentinelLABS e Censys, le implementazioni di AI open source stanno diventando una potenziale bomba a orologeria per la sicurezza informatica. I ricercatori hanno analizzato la distribuzione di Ollama, una piattaforma che consente di eseguire modelli linguistici localmente, e hanno scoperto oltre 175.000 istanze esposte pubblicamente su Internet in 130 paesi.

Ollama e le vulnerabilitร  della “monocultura AI”

La maggior parte delle installazioni individuate utilizza modelli come Llama, Qwen2 e Gemma2, configurati in modo quasi identico e con scelte di compressione e packaging comuni. Questa omogeneitร , definita dai ricercatori come AI monoculture, amplifica il rischio di un attacco su larga scala. Una singola vulnerabilitร  in un modello quantizzato o nel modo in cui gestisce i token potrebbe compromettere migliaia di sistemi.

Pubblicitร 

Ancora piรน preoccupante รจ il fatto che molte istanze esposte includono API con capacitร  di tool-calling, funzionalitร  di visione e template di prompt privi di filtri di sicurezza. Ciรฒ le rende vulnerabili a esecuzioni remote, furti di risorse o reindirizzamento malevolo del traffico. Questo perchรฉ tali implementazioni non sono gestite da singole aziende, spesso non vengono monitorate e aumenta la probabilitร  che degli exploit restino inosservati per lunghi periodi.

L’AI open source va trattata come un’infrastruttura critica

Gli esperti di SentinelLABS e Censys sottolineano che gli LLM devono essere protetti come qualsiasi altra infrastruttura critica. Questo significa adottare autenticazione robusta, monitoraggio costante e controlli di rete per ogni endpoint AI esposto.

L’assenza di standard di sicurezza comuni e di governance per i modelli open source lascia spazio ad abusi. Come per esempio l’esecuzione remota di codice, l’hijacking delle risorse e il mascheramento d’identitร  tramite le infrastrutture compromesse.

La libertร  e la trasparenza dell’open source sono un valore fondamentale. La loro combinazione con i modelli di AI puรฒ perรฒ generare nuovi rischi se non accompagnata da dei controlli adeguati.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicitร 
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

WhatsApp: adesso i chatbot AI esterni si pagano

Meta ha reso noto che inizierร  a far pagare...

Negli USA l’AI di Gemini scrive anche le leggi

L'amministrazione Trump sta avviando un progetto che prevede l'utilizzo...

ChatGPT cancella due anni di lavoro accademico

Un grave incidente legato alla perdita dei dati avrebbe...

Microsoft: l’AI deve ancora dimostrare la sua utilitร 

Durante il World Economic Forum 2026 di Davos, Satya...

OpenAI potrebbe fallire entro il 2027, lo dicono alcuni analisti

OpenAI, uno dei principali protagonisti della corsa all'intelligenza artificiale,...

Google: i modelli di AI cinesi sono vicinissimi agli standard occidentali

Secondo Demis Hassabis, CEO di Google DeepMind e responsabile...
Pubblicitร