Negli ultimi giorni, OpenAI ha vissuto un drastico calo di utenti per il suo popolare chatbot, ChatGPT, in seguito all’annuncio di un accordo con il Dipartimento della Difesa degli Stati Uniti. La reazione del pubblico è stata rapida e significativa, portando a un aumento delle disinstallazioni dell’applicazione, che ha registrato un calo del 295% nei download negli Stati Uniti.
La reazione degli utenti e il crollo di ChatGPT
La notizia della partnership tra OpenAI e il Pentagono ha scatenato un’ondata di disinstallazioni tra gli utenti di ChatGPT. Secondo i dati forniti da SensorTower, il tasso di disinstallazione è salito a un sorprendente 295%, un’impennata rispetto al tasso normale che si attesta intorno al 9% giornaliero. In risposta a questa crisi, Sam Altman, CEO di OpenAI, ha ammesso che l’azienda ha commesso un errore nel comunicare affrettatamente l’accordo, sottolineando la necessità di una comunicazione più chiara e attenta.
Le promesse di OpenAI per una maggiore trasparenza
In un tentativo di placare le preoccupazioni degli utenti, Altman ha annunciato che OpenAI intende apportare modifiche all’accordo con il governo degli Stati Uniti. Queste modifiche includeranno garanzie che il sistema non sarà utilizzato per la sorveglianza interna di cittadini americani. Il CEO ha dichiarato di voler lavorare in modo più trasparente e attraverso processi democratici, evidenziando che l’azienda è aperta a modifiche che chiariscano i limiti dell’uso della propria intelligenza artificiale da parte del Governo.
L’ascesa di Claude di Anthropic come alternativa
Contemporaneamente, il chatbot Claude, sviluppato da Anthropic, ha visto un significativo aumento dei download, superando per la prima volta quelli di ChatGPT. Dopo aver rifiutato di collaborare con il Dipartimento della Difesa, Anthropic ha registrato un incremento del 37% nei download il 27 febbraio e del 51% il giorno successivo. Questo aumento è stato in parte attribuito all’attrazione degli utenti verso un’alternativa che promette di non utilizzare l’intelligenza artificiale per scopi militari.
Le implicazioni sull’uso dell’intelligenza artificiale
La situazione attuale pone interrogativi importanti sull’uso dell’intelligenza artificiale in contesti militari e sulla responsabilità delle aziende tecnologiche. L’intelligenza artificiale, come ChatGPT e Claude, ha il potenziale di influenzare profondamente la società , e l’uso che se ne fa può avere conseguenze etiche significative. La scelta di Anthropic di non collaborare con il Pentagono potrebbe rappresentare un nuovo standard per le aziende tech, che potrebbero essere spinte a rivedere le proprie politiche riguardo all’uso militare delle loro tecnologie.
Il futuro dell’intelligenza artificiale sta diventando sempre più complesso, con aziende come OpenAI e Anthropic alla ricerca di un equilibrio tra innovazione e responsabilità sociale. Mentre OpenAI cerca di recuperare la fiducia degli utenti, il panorama competitivo si sta rapidamente evolvendo, con Claude che emerge come un’alternativa valida e desiderata da chi è preoccupato per le implicazioni etiche dell’uso dell’IA.

