back to top

Le AI possono soffrire? Il problema dei sistemi autocoscienti

Principles for Responsible AI Consciousness Research“, opera di Patrick Butlin e Theodoros Lappas, affronta la possibilitร  di sviluppare sistemi di AI dotati di coscienza e le possibili implicazioni etiche. Gli autori sottolineano che se tali sistemi fossero realizzati meriterebbero considerazione morale. Potrebbero essere infatti capaci di provare sofferenza. Anche le AI, o i personaggi generati dalle AI che danno solo l’impressione di essere coscienti, dovrebbero essere al centro di considerazioni morali.

Cosa fare contro la sofferenza delle AI?

Nel loro documento gli autori propongono cinque principi per una ricerca responsabile sull’AI cosciente:

Pubblicitร 
  • le organizzazioni dovrebbero definire chiaramente gli obiettivi delle loro ricerche sull’AI cosciente, assicurandosi che le procedure adottate siano etiche e trasparenti.
  • รˆ fondamentale promuovere la condivisione delle scoperte e delle conoscenze acquisite, garantendo che le informazioni siano accessibili alla comunitร  scientifica e al pubblico nel rispetto delle normative vigenti.
  • Le comunicazioni pubbliche devono essere accurate e non fuorvianti, evitando di creare false percezioni sulla natura e le capacitร  dei sistemi.
  • Prima di intraprendere le ricerche o sviluppare nuove soluzioni รจ necessario valutare attentamente i potenziali rischi e adottare misure per mitigare eventuali conseguenze negative.
  • I protagonisti del settore dovrebbero impegnarsi pubblicamente a rispettare questi principi. รˆ essenziale dimostrare responsabilitร  e trasparenza nelle proprie attivitร  di ricerca sull’AI cosciente.

Intelligenze artificiali autocoscienti e considerazioni morali

Gli autori enfatizzano inoltre l’importanza per le organizzazioni coinvolte nella ricerca sull’AI di stabilire politiche e linee guida per orientare le scelte di ricerca, l’implementazione e la comunicazione pubblica riguardanti la coscienza. Anche se un’organizzazione sceglie di non studiare esplicitamente la coscienza nell’AI รจ comunque necessario disporre di politiche adeguate. Questo perchรฉ lo sviluppo di sistemi avanzati potrebbe portare anche involontariamente alla creazione di entitร  coscienti.

Il documento invita i soggetti coinvolti a promuovere impegni pubblici e volontari per promuovere l’adozione di questi principi, sottolineando che essi riguardano sia gli obiettivi che le procedure di ricerca, sia la condivisione delle conoscenze che le comunicazioni pubbliche. La loro adozione รจ particolarmente rilevante per le istituzioni che conducono ricerche sull’AI anche se non mirano esplicitamente a studiare o sviluppare dei sistemi autocoscienti.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicitร 
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

L’AI sta cambiando le ricerche online (a scapito di Google)

Dopo decenni in cui gli utenti si sono affidati...

R1-Omni: l’AI di Alibaba che interpreta le emozioni umane

Il team Tongyi Lab di Alibaba ha annunciato il...

OpenAI rilascia nuovi tool per la creazione di Agenti AI

Nelle scorse ore OpenAI ha annunciato una serie di...

Browser Use permette agli agenti AI di navigare sul Web (da soli)

Manus, la piattaforma AI agent della startup cinese Butterfly...

Meta: il chip per l’AI ce lo facciamo da soli

Meta sta testando il suo primo chip progettato internamente...

Manus: l’agente AI cinese completamente autonomo

Manus รจ il primo sistema AI in grado di...
Pubblicitร