back to top

Microsoft: le truffe basate sulle AI sono in aumento

Nel suo nono report intitolato Cyber Signals, Microsoft mette in evidenza la minaccia rappresentata dalle frodi informatiche basate sull’intelligenza artificiale. Pubblicato nelle scorse ore, il documento spiega come i cyber criminali stiano sfruttando l’AI generativa per rendere le truffe piรน sofisticate, convincenti e applicarle su larga scala.

L’allarme in un report di Microsoft

Tra aprile 2024 e aprile 2025 Microsoft ha bloccato 4 miliardi di tentativi di frode, rigettato 49 mila iscrizioni fraudolente a programmi di partnership e intercettato 1,6 milioni di tentativi di creazione account falsi ogni ora.

Pubblicitร 

L’uso dell’AI consente ai truffatori di creare siti e-commerce fittizi, recensioni fasulle, immagini di prodotti generate artificialmente e chatbot ingannevoli in grado di gestire le interazioni con le vittime. Anche il settore dell’occupazione รจ bersaglio di frodi. Annunci di lavoro inventati, finte offerte e profili clonati vengono creati e gestiti tramite strumenti di AI rendendo difficile distinguere il falso dalla realtร .

Per questa ragione Microsoft ha implementato nuove contromisure nei propri prodotti. Come per esempio in Edge che ora include protezioni contro siti falsi e pop-up allarmistici tramite modelli di apprendimento automatico. Inoltre, su Microsoft Defender for Cloud sono stati potenziati ulteriormente gli strumenti di rilevamento delle minacce e valutazione delle vulnerabilitร .

Anche gli attacchi legati all’assistenza tecnica rappresentano una minaccia sempre piรน insidiosa, anche se non sempre sono riconducibili alle AI. Il gruppo cybercriminale Storm-1811, ad esempio, ha recentemente abusato della piattaforma Quick Assist per ottenere accesso remoto ai dispositivi delle vittime fingendosi supporto tecnico. Microsoft ha poi risposto sospendendo gli account compromessi.

L’approccio Fraud-resistant by Design alla sicurezza

Come parte della SFI (Secure Future Initiative) Microsoft ha definito una politica che obbliga i team di prodotto a includere valutazioni e controlli anti-frode giร  nella fase di progettazione. L’obbiettivo รจ quindi quello di promuove un approccio Fraud-resistant by Design che renda le applicazioni nativamente sicure contro gli attacchi degli utenti malinenzionati.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicitร 
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

Meno metaverso e piรน AI nel futuro di Meta

Meta ha programmato una revisione della propria strategia aziendale...

ChatGPT ha compiuto 3 anni

Il 30 novembre 2022 OpenAI presentava al pubblico un...

ChatGPT puรฒ fare tutto? Prova a chiedergli che ore sono..

Quando si interagisce con un'AI, come quella che permette...

DeepSeek svelerร  i segreti dell’universo

Il gruppo cinese DeepSeek, giร  noto per aver introdotto...

Windows 11 ha una nuova sezione “Aggiornamenti app” nelle Impostazioni

Con l'ultima build di anteprima di Windows 11, Microsoft...

La memoria RAM diventa sempre piรน costosa a causa dell’AI

Il successo dell'intelligenza artificiale sta provocando forti tensioni sul...
Pubblicitร