Il dibattito sulla cybersecurity si intensifica con il crescente utilizzo dell’intelligenza artificiale (AI) nei sistemi di difesa. L’assenza di restrizioni nei modelli di AI solleva interrogativi cruciali riguardo alla loro sicurezza e vulnerabilità , specialmente in un contesto in cui hacker e malware diventano sempre più sofisticati.
Il conflitto tra esigenze militari e sicurezza tecnologica
Recenti confronti tra il Pentagono e aziende come Anthropic evidenziano un dilemma storico: come bilanciare il potenziale della tecnologia con la necessità di proteggere da usi impropri. Mentre il Pentagono spinge per l’adozione di AI senza restrizioni, Anthropic avanza richieste per mantenere ‘guardrail’ di sicurezza. Questi ultimi sono fondamentali per prevenire l’uso delle AI come armi autonome o in programmi di sorveglianza di massa.
Vulnerabilità dei sistemi di intelligenza artificiale
Un recente studio di Trend Micro mette in luce come le AI utilizzate nei Security Operation Center (SOC) siano diventate obiettivi primari per i cybercriminali. Le competenze delle AI, impiegate per classificare allerta e gestire risposte agli attacchi, possono essere manipolate da hacker per eludere i sistemi di sicurezza. Ciò non solo aumenta il rischio di attacchi informatici, ma può anche avere conseguenze devastanti in settori critici come quello finanziario e sanitario.
Strategie per garantire la resilienza delle AI
Nonostante nessun sistema informatico possa garantire una sicurezza totale, l’implementazione di misure di sicurezza può aumentare significativamente la resilienza delle AI. Luca Sambucci, esperto di sicurezza dell’intelligenza artificiale, sottolinea l’importanza di tecniche di addestramento e simulazioni realistiche di attacchi per migliorare la robustezza dei modelli. Altrettanto importante è l’adozione di misure di sicurezza umana, che aiutano a mantenere le AI entro i limiti definiti dalle policy di utilizzo.
Il rischio di un boomerang nella sicurezza
L’adozione di AI senza restrizioni potrebbe rivelarsi un’arma a doppio taglio. Se da un lato l’assenza di limitazioni può apparire vantaggiosa in un contesto militare, dall’altro espone a vulnerabilità che potrebbero essere sfruttate da avversari digitali. La resilienza delle AI deve quindi essere una priorità , non solo per garantirne l’efficacia in contesti difensivi, ma anche per proteggere le stesse dai rischi di manipolazione.

