Le AI possono soffrire? Il problema dei sistemi autocoscienti

Principles for Responsible AI Consciousness Research“, opera di Patrick Butlin e Theodoros Lappas, affronta la possibilitร  di sviluppare sistemi di AI dotati di coscienza e le possibili implicazioni etiche. Gli autori sottolineano che se tali sistemi fossero realizzati meriterebbero considerazione morale. Potrebbero essere infatti capaci di provare sofferenza. Anche le AI, o i personaggi generati dalle AI che danno solo l’impressione di essere coscienti, dovrebbero essere al centro di considerazioni morali.

Cosa fare contro la sofferenza delle AI?

Nel loro documento gli autori propongono cinque principi per una ricerca responsabile sull’AI cosciente:

Pubblicitร 
  • le organizzazioni dovrebbero definire chiaramente gli obiettivi delle loro ricerche sull’AI cosciente, assicurandosi che le procedure adottate siano etiche e trasparenti.
  • รˆ fondamentale promuovere la condivisione delle scoperte e delle conoscenze acquisite, garantendo che le informazioni siano accessibili alla comunitร  scientifica e al pubblico nel rispetto delle normative vigenti.
  • Le comunicazioni pubbliche devono essere accurate e non fuorvianti, evitando di creare false percezioni sulla natura e le capacitร  dei sistemi.
  • Prima di intraprendere le ricerche o sviluppare nuove soluzioni รจ necessario valutare attentamente i potenziali rischi e adottare misure per mitigare eventuali conseguenze negative.
  • I protagonisti del settore dovrebbero impegnarsi pubblicamente a rispettare questi principi. รˆ essenziale dimostrare responsabilitร  e trasparenza nelle proprie attivitร  di ricerca sull’AI cosciente.

Intelligenze artificiali autocoscienti e considerazioni morali

Gli autori enfatizzano inoltre l’importanza per le organizzazioni coinvolte nella ricerca sull’AI di stabilire politiche e linee guida per orientare le scelte di ricerca, l’implementazione e la comunicazione pubblica riguardanti la coscienza. Anche se un’organizzazione sceglie di non studiare esplicitamente la coscienza nell’AI รจ comunque necessario disporre di politiche adeguate. Questo perchรฉ lo sviluppo di sistemi avanzati potrebbe portare anche involontariamente alla creazione di entitร  coscienti.

Il documento invita i soggetti coinvolti a promuovere impegni pubblici e volontari per promuovere l’adozione di questi principi, sottolineando che essi riguardano sia gli obiettivi che le procedure di ricerca, sia la condivisione delle conoscenze che le comunicazioni pubbliche. La loro adozione รจ particolarmente rilevante per le istituzioni che conducono ricerche sull’AI anche se non mirano esplicitamente a studiare o sviluppare dei sistemi autocoscienti.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicitร 
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

L’US Air Force rivoluziona i droni con software AI in volo

L'US Air Force ha recentemente compiuto un'importante innovazione nel...

Anthropic accusa le cinesi DeepSeek, Moonshot e MiniMax di “distillazione” del modello Claude

Recentemente, Anthropic ha lanciato accuse gravi contro tre aziende...

ChatGPT introduce l’opzione ‘Naughty chats’ per adulti

OpenAI sta ridefinendo il ruolo degli assistenti digitali con...

Prompt injection e SEO “tossica”: come si manipolano i chatbot

Un recente esperimento ha riportato l'attenzione su una vulnerabilitร ...

Donna accusata di pianificare omicidi con ChatGPT

In Corea del Sud una donna di 21 anni...

Parlamento europeo: niente AI su tablet e smartphone

Il Parlamento europeo ha deciso di disabilitare le funzionalitร ...
Pubblicitร