back to top

Meta: non rilasceremo AI pericolose

In un nuovo documento intitolato “Frontier AI Framework“, Meta ha delineato gli scenari in cui potrebbe decidere di non rilasciare sistemi di AI particolarmente avanzati e potenzialmente pericolosi. L’azienda identifica infatti due categorie di soluzioni d AI che considera troppo rischiose per una distribuzione pubblica:

  • Sistemi ad alto rischio: capaci di facilitare attacchi informatici, chimici o biologici rendendoli piรน semplici.
  • Sistemi a rischio critico: quelli che potrebbero portare a conseguenze catastrofiche non mitigabili nel contesto in cui verrebbero implementati.

Tra gli esempi citati da Meta figurano le compromissioni automatizzate di ambienti aziendali protetti e la proliferazione di armi biologiche ad alto impatto.

Pubblicitร 

Come Meta classifica i rischi della AI

Un aspetto insolito del framework di Meta รจ il suo metodo di classificazione del rischio. L’azienda infatti non si affida esclusivamente a test empirici ma si basa sul giudizio di ricercatori interni ed esterni, soggetti a revisione da parte di dirigenti senior. Questo perchรฉ, attualmente, non esisterebbero delle metriche affidabili per determinare il livello di rischio di un sistema AI.

Se un sistema dovesse essere classificato come ad alto rischio, Meta ne limiterร  l’accesso interno e ne ritarderร  il rilascio fino a quando il rischio non sarร  ridotto a un livello moderato. Se invece dovesse essere classificato a rischio critico, lo sviluppo sarร  interrotto fino a quando non sarร  possibile mitigare le eventuali minacce.

Un bilanciamento tra apertura e sicurezza

Meta ha adottato una strategia di AI aperta, in contrasto con aziende come OpenAI, che mantengono un maggiore controllo sui loro sistemi. Tale approccio ha perรฒ portato sia dei benefici che dei problemi. Il modello Llama ha registrato ad esempio centinaia di milioni di download ma sarebbe stato anche utilizzato da utenti malevoli per sviluppare dei chatbot.

La pubblicazione del Frontier AI Framework potrebbe servire a differenziare Meta da aziende come la cinese DeepSeek che renderebbe i propri modelli liberamente accessibili senza perรฒ offrire adeguate salvaguardie per i dati personali degli utenti.

La sua strategia mira a bilanciare benefici e rischi garantendo che la tecnologia di AI possa essere rilasciata in modo responsabile. Questo in modo da massimizzare i vantaggi per la societร  senza compromettere la sicurezza globale.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicitร 
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

NVIDIA G-Assist ottimizza il PC con l’AI

Dopo la presentazione nel corso del Computex 2024, Project...

Ora GPT-4o crea e modifica le immagini

OpenAI presenta un'interessante novitร  dedicata all'intelligenza artificiale visiva con...

Google lancia Gemini 2.5, il suo modello AI piรน intelligente

Google DeepMind ha annunciato il rilascio di Gemini 2.5...

Hollywood si ribella contro le AI di Google e OpenAI

Oltre 400 personalitร  del mondo dello spettacolo tra cui...

Instagram testa i commenti creati dall’AI

Gli sviluppatori di Instagram, proprietร  di Meta, stanno sperimentando...

WhatsApp: una funzionalitร  AI per riscrivere i messaggi

WhatsApp, l'app di messaggistica istantanea di Meta utilizzata da...
Pubblicitร