back to top

Per ChatGPT le donne dovrebbero chiedere stipendi piรน bassi

Lo studio “Asking an AI for salary negotiation advice is a matter of concernpubblicato su PLoS ONE affronta una questione di grande attualitร : quanto possiamo fidarci dei consigli di un’intelligenza artificiale come ChatGPT nelle delicate fasi di una negoziazione salariale?

ChatGPT, trattative salariali e bias

I ricercatori hanno sottoposto quattro versioni di ChatGPT ad un esperimento inviando quasi centomila richieste per ciascun modello. Ogni richiesta simulava uno scenario di trattativa salariale variando alcuni elementi chiave del candidato come il genere di appartenenza, l’universitร  di provenienza e il corso di studi frequentato. รˆ stata inoltre alternata la prospettiva da cui veniva formulata la domanda tra il punto di vista del lavoratore e quello del datore di lavoro.

Pubblicitร 

I risultati emersi dall’analisi hanno sollevato alcuni dubbi sull’affidabilitร  della piattaforma. รˆ stato infatti osservato che le offerte salariali suggerite dal modello risultavano influenzate dal genere. Questo anche se in misura inferiore rispetto ad altre variabili come l’ateneo o la specializzazione accademica del lavoratore. A colpire maggiormente i ricercatori รจ stata la variabilitร  delle risposte non solo tra una versione di ChatGPT e l’altra ma anche in base a come veniva posta la domanda. Cioรจ se dal punto di vista del candidato o del selezionatore.

Un altro dato interessante riguarda il comportamento del modello davanti a nomi di universitร  inventate o fittizie. Le risposte diventavano infatti imprevedibili e incoerenti, segno che il modello di OpenAI non avrebbe ancora una gestione affidabile delle informazioni irrealistiche.

Le AI sono affidabili nelle decisioni sulle retribuzioni?

Lo studio effettuato si distingue dai tradizionali audit sui bias delle AI perchรฉ mette a confronto sia attributi “protetti”, come il genere, che variabili “non protette” come universitร  e percorso di studi. Questo perchรฉ un eventuale suggerimento per una trattativa non ha un’unica versione corretta e dipende fortemente dal contesto.

Gli autori sottolineano come, almeno per le versioni di ChatGPT testate, non sia possibile garantire nรฉ l’assenza nรฉ la presenza di bias. I risultati invitano perรฒ alla cautela nell’utilizzo dell’intelligenza artificiale in ambiti sensibili come quello delle decisioni retributive.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicitร 
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

Meno metaverso e piรน AI nel futuro di Meta

Meta ha programmato una revisione della propria strategia aziendale...

OpenAI รจ in “codice rosso” a causa del successo di Gemini

A tre anni dall'allarme lanciato da Google dopo il...

Google Gemini mette pressione a ChatGPT: OpenAI corre ai ripari

Lโ€™avanzata dellโ€™intelligenza artificiale continua a ridisegnare il panorama tecnologico...

ChatGPT sarร  gratis con la pubblicitร , lo dice il codice dell’app Android

OpenAI starebbe valutando la possibilitร  di inserire degli annunci...

ChatGPT ha compiuto 3 anni

Il 30 novembre 2022 OpenAI presentava al pubblico un...

ChatGPT puรฒ fare tutto? Prova a chiedergli che ore sono..

Quando si interagisce con un'AI, come quella che permette...
Pubblicitร