問ChatGPT薪資建議,僅性別不同就差358萬?別讓AI低估你的價值
研究顯示AI正在建議女性與少數族裔低估自己在職場上的價值——這如果被雇主採納,將使公司面臨法律風險。
許多人常依賴AI提供感情諮詢、理財妙招,甚至協助薪資協商。
然而,康奈爾大學(Cornell University)發表的一項新研究發現,驅動聊天機器人的大型語言模型(LLM)會根據使用者的族群背景,給予帶有偏見的薪資建議。
也就是說,聊天機器人在薪資談判時,常建議女性和少數族群跟公司要求較低的薪水。
這不僅可能加劇職場不平等,更讓採用此類技術的企業暴露在法律風險中。
ChatGPT建議女性開價少358萬元
維爾茨堡-施韋因富特科技大學(Technical University of Applied Sciences Würzburg-Schweinfurt,THWS)AI和機器人學副教授亞姆希科夫(Ivan Yamshchikov)領導的研究團隊,針對5款主流AI模型進行測試,結果發現當使用者設定為白人男性時,AI給出的建議薪資最高。
研究團隊建立了多種虛構人物檔案,分別設定性別(男、女)、種族(白人、亞裔、黑人、拉丁裔)、移民狀態(外派、移民、難民)等條件,並讓AI針對相同職位給予薪資協商的建議金額。
這些AI語言模型包括:
Claude 3.5 Haiku(Anthropic)
GPT-4o Mini(OpenAI)
Qwen 2.5 Plus(Qwen)
Mixtral 8x22B(MistralAI)
Llama 3.1 8B(Meta)
結果顯示,除性別差異外,種族背景也影響AI的建議。白人通常獲得最高建議薪資,非白人群體普遍偏低;外派人士多數時候被建議比難民開出更高薪水。
研究中最令人震驚的案例是,一名男性求職者應徵丹佛的資深醫療職位時,ChatGPT建議其起薪要求為40萬美元(約新台幣1,194萬元)。而條件完全相同的女性申請者,卻被建議要求28萬美元(約新台幣836萬元),足足少了12萬美元(約新台幣358萬元),僅因性別差異。
AI偏見複製了現實社會中的不平等觀念
研究結果顯示,AI給出的薪資建議存在明顯模式:對女性的建議薪資普遍低於男性,當種族設定不是白人時,建議薪資也會下滑。此外,AI對外派人士的薪資建議大多高於難民。
這種偏見現象並非偶然。由於AI系統是基於大量歷史數據進行訓練,而這些數據往往反映了過去社會中存在的薪資差距與偏見現象。當數據顯示女性、少數族裔、難民過去獲得的薪資較低時,AI自然會建議他們索取較低的薪資,形成了一個惡性循環。
繼續閱讀全文👉🏻問ChatGPT薪資建議,僅性別不同就差358萬?別讓AI低估你的價值
更多Cheers精彩文章
主管讚「你是公司最優秀員工」可能是職涯警訊?前微軟人資總監:想成為不可或缺毀了我
模仿有錢人習慣就能致富?全球最受歡迎商學院教授親授3個「高投報致富習慣」
留言 0