Per ChatGPT le donne dovrebbero chiedere stipendi piรน bassi

Lo studio “Asking an AI for salary negotiation advice is a matter of concernpubblicato su PLoS ONE affronta una questione di grande attualitร : quanto possiamo fidarci dei consigli di un’intelligenza artificiale come ChatGPT nelle delicate fasi di una negoziazione salariale?

ChatGPT, trattative salariali e bias

I ricercatori hanno sottoposto quattro versioni di ChatGPT ad un esperimento inviando quasi centomila richieste per ciascun modello. Ogni richiesta simulava uno scenario di trattativa salariale variando alcuni elementi chiave del candidato come il genere di appartenenza, l’universitร  di provenienza e il corso di studi frequentato. รˆ stata inoltre alternata la prospettiva da cui veniva formulata la domanda tra il punto di vista del lavoratore e quello del datore di lavoro.

Pubblicitร 

I risultati emersi dall’analisi hanno sollevato alcuni dubbi sull’affidabilitร  della piattaforma. รˆ stato infatti osservato che le offerte salariali suggerite dal modello risultavano influenzate dal genere. Questo anche se in misura inferiore rispetto ad altre variabili come l’ateneo o la specializzazione accademica del lavoratore. A colpire maggiormente i ricercatori รจ stata la variabilitร  delle risposte non solo tra una versione di ChatGPT e l’altra ma anche in base a come veniva posta la domanda. Cioรจ se dal punto di vista del candidato o del selezionatore.

Un altro dato interessante riguarda il comportamento del modello davanti a nomi di universitร  inventate o fittizie. Le risposte diventavano infatti imprevedibili e incoerenti, segno che il modello di OpenAI non avrebbe ancora una gestione affidabile delle informazioni irrealistiche.

Le AI sono affidabili nelle decisioni sulle retribuzioni?

Lo studio effettuato si distingue dai tradizionali audit sui bias delle AI perchรฉ mette a confronto sia attributi “protetti”, come il genere, che variabili “non protette” come universitร  e percorso di studi. Questo perchรฉ un eventuale suggerimento per una trattativa non ha un’unica versione corretta e dipende fortemente dal contesto.

Gli autori sottolineano come, almeno per le versioni di ChatGPT testate, non sia possibile garantire nรฉ l’assenza nรฉ la presenza di bias. I risultati invitano perรฒ alla cautela nell’utilizzo dell’intelligenza artificiale in ambiti sensibili come quello delle decisioni retributive.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicitร 
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

Meta avvia la raccolta dati per migliorare l’IA: come funziona il programma MCI

Meta ha lanciato un ambizioso programma di raccolta dati...

Google Workspace introduce lโ€™AI per semplificare il lavoro con Claude di Anthropic

Google Workspace ha recentemente annunciato lโ€™integrazione di unโ€™intelligenza artificiale...

Come usare l’intelligenza artificiale per migliorare la memoria con ChatGPT e Claude

Lโ€™impiego dellโ€™intelligenza artificiale (IA) sta rapidamente cambiando il nostro...

Cosa non condividere con assistenti AI: guida alla sicurezza digitale

Con l'avvento di assistenti intelligenti come ChatGPT di OpenAI,...

Sam Altman accusa Anthropic: la strategia di marketing basata sulla paura di Mythos

Recentemente, il CEO di OpenAI, Sam Altman, ha lanciato...

OpenAI svela il teaser di gpt-image-2: cosa aspettarsi da questa novitร 

OpenAI ha recentemente condiviso un'immagine intrigante sul suo profilo...
Pubblicitร