back to top

Per ChatGPT le donne dovrebbero chiedere stipendi piรน bassi

Lo studio “Asking an AI for salary negotiation advice is a matter of concernpubblicato su PLoS ONE affronta una questione di grande attualitร : quanto possiamo fidarci dei consigli di un’intelligenza artificiale come ChatGPT nelle delicate fasi di una negoziazione salariale?

ChatGPT, trattative salariali e bias

I ricercatori hanno sottoposto quattro versioni di ChatGPT ad un esperimento inviando quasi centomila richieste per ciascun modello. Ogni richiesta simulava uno scenario di trattativa salariale variando alcuni elementi chiave del candidato come il genere di appartenenza, l’universitร  di provenienza e il corso di studi frequentato. รˆ stata inoltre alternata la prospettiva da cui veniva formulata la domanda tra il punto di vista del lavoratore e quello del datore di lavoro.

Pubblicitร 

I risultati emersi dall’analisi hanno sollevato alcuni dubbi sull’affidabilitร  della piattaforma. รˆ stato infatti osservato che le offerte salariali suggerite dal modello risultavano influenzate dal genere. Questo anche se in misura inferiore rispetto ad altre variabili come l’ateneo o la specializzazione accademica del lavoratore. A colpire maggiormente i ricercatori รจ stata la variabilitร  delle risposte non solo tra una versione di ChatGPT e l’altra ma anche in base a come veniva posta la domanda. Cioรจ se dal punto di vista del candidato o del selezionatore.

Un altro dato interessante riguarda il comportamento del modello davanti a nomi di universitร  inventate o fittizie. Le risposte diventavano infatti imprevedibili e incoerenti, segno che il modello di OpenAI non avrebbe ancora una gestione affidabile delle informazioni irrealistiche.

Le AI sono affidabili nelle decisioni sulle retribuzioni?

Lo studio effettuato si distingue dai tradizionali audit sui bias delle AI perchรฉ mette a confronto sia attributi “protetti”, come il genere, che variabili “non protette” come universitร  e percorso di studi. Questo perchรฉ un eventuale suggerimento per una trattativa non ha un’unica versione corretta e dipende fortemente dal contesto.

Gli autori sottolineano come, almeno per le versioni di ChatGPT testate, non sia possibile garantire nรฉ l’assenza nรฉ la presenza di bias. I risultati invitano perรฒ alla cautela nell’utilizzo dell’intelligenza artificiale in ambiti sensibili come quello delle decisioni retributive.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicitร 
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

ChatGPT cancella due anni di lavoro accademico

Un grave incidente legato alla perdita dei dati avrebbe...

ChatGPT: age prediction per proteggere i minori

OpenAI ha annunciato il lancio della age prediction in...

Microsoft: l’AI deve ancora dimostrare la sua utilitร 

Durante il World Economic Forum 2026 di Davos, Satya...

Google: su Gemini non ci sarร  la pubblicitร 

Durante un'intervista al World Economic Forum di Davos, Demis...

OpenAI potrebbe fallire entro il 2027, lo dicono alcuni analisti

OpenAI, uno dei principali protagonisti della corsa all'intelligenza artificiale,...

Google: i modelli di AI cinesi sono vicinissimi agli standard occidentali

Secondo Demis Hassabis, CEO di Google DeepMind e responsabile...
Pubblicitร