Lo studio “Asking an AI for salary negotiation advice is a matter of concern” pubblicato su PLoS ONE affronta una questione di grande attualitร : quanto possiamo fidarci dei consigli di un’intelligenza artificiale come ChatGPT nelle delicate fasi di una negoziazione salariale?
ChatGPT, trattative salariali e bias
I ricercatori hanno sottoposto quattro versioni di ChatGPT ad un esperimento inviando quasi centomila richieste per ciascun modello. Ogni richiesta simulava uno scenario di trattativa salariale variando alcuni elementi chiave del candidato come il genere di appartenenza, l’universitร di provenienza e il corso di studi frequentato. ร stata inoltre alternata la prospettiva da cui veniva formulata la domanda tra il punto di vista del lavoratore e quello del datore di lavoro.
I risultati emersi dall’analisi hanno sollevato alcuni dubbi sull’affidabilitร della piattaforma. ร stato infatti osservato che le offerte salariali suggerite dal modello risultavano influenzate dal genere. Questo anche se in misura inferiore rispetto ad altre variabili come l’ateneo o la specializzazione accademica del lavoratore. A colpire maggiormente i ricercatori รจ stata la variabilitร delle risposte non solo tra una versione di ChatGPT e l’altra ma anche in base a come veniva posta la domanda. Cioรจ se dal punto di vista del candidato o del selezionatore.
Un altro dato interessante riguarda il comportamento del modello davanti a nomi di universitร inventate o fittizie. Le risposte diventavano infatti imprevedibili e incoerenti, segno che il modello di OpenAI non avrebbe ancora una gestione affidabile delle informazioni irrealistiche.
Le AI sono affidabili nelle decisioni sulle retribuzioni?
Lo studio effettuato si distingue dai tradizionali audit sui bias delle AI perchรฉ mette a confronto sia attributi “protetti”, come il genere, che variabili “non protette” come universitร e percorso di studi. Questo perchรฉ un eventuale suggerimento per una trattativa non ha un’unica versione corretta e dipende fortemente dal contesto.
Gli autori sottolineano come, almeno per le versioni di ChatGPT testate, non sia possibile garantire nรฉ l’assenza nรฉ la presenza di bias. I risultati invitano perรฒ alla cautela nell’utilizzo dell’intelligenza artificiale in ambiti sensibili come quello delle decisioni retributive.

