back to top

Microsoft: le truffe basate sulle AI sono in aumento

Nel suo nono report intitolato Cyber Signals, Microsoft mette in evidenza la minaccia rappresentata dalle frodi informatiche basate sull’intelligenza artificiale. Pubblicato nelle scorse ore, il documento spiega come i cyber criminali stiano sfruttando l’AI generativa per rendere le truffe piรน sofisticate, convincenti e applicarle su larga scala.

L’allarme in un report di Microsoft

Tra aprile 2024 e aprile 2025 Microsoft ha bloccato 4 miliardi di tentativi di frode, rigettato 49 mila iscrizioni fraudolente a programmi di partnership e intercettato 1,6 milioni di tentativi di creazione account falsi ogni ora.

Pubblicitร 

L’uso dell’AI consente ai truffatori di creare siti e-commerce fittizi, recensioni fasulle, immagini di prodotti generate artificialmente e chatbot ingannevoli in grado di gestire le interazioni con le vittime. Anche il settore dell’occupazione รจ bersaglio di frodi. Annunci di lavoro inventati, finte offerte e profili clonati vengono creati e gestiti tramite strumenti di AI rendendo difficile distinguere il falso dalla realtร .

Per questa ragione Microsoft ha implementato nuove contromisure nei propri prodotti. Come per esempio in Edge che ora include protezioni contro siti falsi e pop-up allarmistici tramite modelli di apprendimento automatico. Inoltre, su Microsoft Defender for Cloud sono stati potenziati ulteriormente gli strumenti di rilevamento delle minacce e valutazione delle vulnerabilitร .

Anche gli attacchi legati all’assistenza tecnica rappresentano una minaccia sempre piรน insidiosa, anche se non sempre sono riconducibili alle AI. Il gruppo cybercriminale Storm-1811, ad esempio, ha recentemente abusato della piattaforma Quick Assist per ottenere accesso remoto ai dispositivi delle vittime fingendosi supporto tecnico. Microsoft ha poi risposto sospendendo gli account compromessi.

L’approccio Fraud-resistant by Design alla sicurezza

Come parte della SFI (Secure Future Initiative) Microsoft ha definito una politica che obbliga i team di prodotto a includere valutazioni e controlli anti-frode giร  nella fase di progettazione. L’obbiettivo รจ quindi quello di promuove un approccio Fraud-resistant by Design che renda le applicazioni nativamente sicure contro gli attacchi degli utenti malinenzionati.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicitร 
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

Gemma 3n: l’AI di Google funziona anche in locale

Durante la conferenza Google I/O 2025, tra le tante...

Google lancia Flow per il filmaking

Google presenta Flow, nuovo strumento per il filmmaking alimentato...

GPT-5: tutta la AI a portata di mano

Nello scorse ore OpenAI ha anticipato quelle che saranno...

Google AI Ultra, tutta la AI a 250 dollari al mese

Google AI Ultra รจ un piano in abbonamento che...

Studentessa smaschera professore che usa ChatGPT

La questione dell'uso dell'intelligenza artificiale nelle universitร  torna al...

OpenAI integra il modello generativo GPT-4.1 su ChatGPT

OpenAI ha integrato ufficialmente il suo modello di punta...
Pubblicitร