Anthropic avvia un’indagine su accessi non autorizzati a Claude Mythos

Recenti eventi hanno messo in luce le vulnerabilità legate all’accesso al nuovo modello di intelligenza artificiale di Anthropic, Claude Mythos. Alcuni utenti non autorizzati sono riusciti a ottenere accesso al sistema, sollevando preoccupazioni circa la sicurezza e l’uso etico della tecnologia AI.

Accesso non autorizzato a Claude Mythos

Secondo una notizia riportata da Bloomberg, un gruppo di utenti ha avuto accesso a Claude Mythos attraverso canali non ufficiali, promettendo di non sfruttare il modello per scopi pericolosi. Questo accesso è avvenuto tramite i permessi di un dipendente di un fornitore di terze parti, coinvolto nel Project Glasswing, l’iniziativa di Anthropic per la distribuzione controllata del modello. Nonostante le rassicurazioni da parte degli utenti, rimane alta l’ansia riguardo alla potenziale abusabilità delle capacità avanzate della tecnologia.

Pubblicità

Le conseguenze di un rilascio controllato

Anthropic ha adottato un approccio cauteloso nella distribuzione di Claude Mythos, limitando l’accesso a un numero ristretto di aziende affidabili. Tuttavia, questa scelta è stata criticata da esperti di sicurezza, i quali avvertono che se i cybercriminali riescono a utilizzare il modello, le altre aziende escluse dal progetto rischiano di non avere strumenti sufficienti per difendersi. I rappresentanti di Anthropic hanno avviato un’indagine sull’accaduto, cercando di chiarire l’impatto dell’accesso non autorizzato sui loro sistemi.

Implicazioni per la cybersecurity

La potenzialità di Claude Mythos per creare attacchi informatici è allarmante. Gli utenti coinvolti in questo accesso illecito avrebbero anche condiviso informazioni su come localizzare il modello online, basandosi su formati noti da precedenti ricerche di Anthropic. Questa situazione pone interrogativi sulla sicurezza dei dati e sulla protezione delle informazioni sensibili.

Possibili sviluppi futuri

In un clima di crescente preoccupazione per la sicurezza informatica, la questione se un rilascio pubblico di Claude Mythos possa essere una soluzione migliore è ora al centro del dibattito. La trasparenza e l’accesso aperto potrebbero favorire una maggiore collaborazione tra esperti di sicurezza e sviluppatori, potenzialmente mitigando i rischi associati a usi impropri. Come ha affermato un portavoce di Anthropic, “Stiamo indagando su una segnalazione relativa all’accesso non autorizzato a Claude Mythos attraverso uno degli ambienti di un nostro fornitore terzo”.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicità
Massimiliano Bossi
Massimiliano Bossi
Stregato dalla rete sin dai tempi delle BBS e dei modem a 2.400 baud, ho avuto la fortuna di poter trasformare la mia passione in un lavoro (nonostante una Laurea in Giurisprudenza). Adoro scrivere codice e mi occupo quotidianamente di comunicazione, design e nuovi media digitali. Orgogliosamente "nerd" sono il fondatore di MRW.it (per il quale ho scritto centinaia di articoli) e di una nota Web-Agency (dove seguo in prima persona progetti digitali per numerosi clienti sia in Italia che all'estero).

Leggi anche...

Meta avvia la raccolta dati per migliorare l’IA: come funziona il programma MCI

Meta ha lanciato un ambizioso programma di raccolta dati...

Google Workspace introduce l’AI per semplificare il lavoro con Claude di Anthropic

Google Workspace ha recentemente annunciato l’integrazione di un’intelligenza artificiale...

Google lancia i nuovi chip AI TPU 8t e TPU 8i per l’era agentica

Google ha recentemente annunciato una significativa evoluzione nel campo...

Come usare l’intelligenza artificiale per migliorare la memoria con ChatGPT e Claude

L’impiego dell’intelligenza artificiale (IA) sta rapidamente cambiando il nostro...

La corsa all’IA: perché la Cina supera gli USA con Claude e Gemini

La competizione globale nell'intelligenza artificiale (IA) ha visto la...

Cosa non condividere con assistenti AI: guida alla sicurezza digitale

Con l'avvento di assistenti intelligenti come ChatGPT di OpenAI,...
PubblicitÃ