Un recente esperimento ha riportato l’attenzione su una vulnerabilità nota dei sistemi generativi come ChatGPT, Google Search con AI Overview e Gemini. Si tratta della possibilità di influenzare le risposte attraverso dei contenuti opportunamente ottimizzati. Sarebbe infatti sufficiente pubblicare un blog post ben costruito per alterare le informazioni fornite dai modelli quando attivano la ricerca online.
Come funziona l’attacco
I large language model operano su due livelli: conoscenza addestrata offline e recupero dinamico di informazioni dal web. È con quest’ultimo che si aprono dei margini di abuso. Se un chatbot interroga delle fonti online per aggiornare o verificare i dati, può essere esposto a contenuti manipolati pensati per influenzarne l’output.
La tecnica ricorda alcune pratiche di SEO spam evolute ma applicate all’AI. Esperti di ottimizzazione per i motori di ricerca segnalano inoltre che, oggi, sarebbe molto più facile ingannare un chatbot rispetto alla Google Search di qualche anno fa. Esisterebbe quindi un gap tra la velocità di sviluppo e la capacità di controllo.
Rischi per utenti e reputazione dei chatbot AI
Il problema non sarebbe circoscritto a pochi test. Altre analisi mostrano casi in cui gli strumenti di AI sono stati spinti a promuovere attività commerciali, diffondere informazioni fuorvianti su salute o finanza, o alterare le percezioni reputazionali.
Google sostiene che i propri sistemi garantiscono dei risultati privi di spam al 99% e che sono in corso degli interventi per mitigare gli abusi. Anche OpenAI dichiara di adottare delle contromisure contro i tentativi di manipolazione. Le superfici di attacco restano però molto estese.
Se i chatbot diventano degli intermediari di primo livello tra utenti e contenuti, la compromissione delle fonti può tradursi in decisioni errate su elezioni, investimenti o salute.

