聯(lián)合國教科文組織報(bào)告:大語言模型存在性別偏見
在國際婦女節(jié)臨近之際,聯(lián)合國教科文組織發(fā)布的一項(xiàng)研究顯示,包括 OpenAI 的 GPT-3.5 和 GPT-2、Meta 的 Llama 2 等大語言模型正面臨著性別偏見的質(zhì)疑。
大語言模型是一種自然語言處理工具,用于支持生成式人工智能。聯(lián)合國教科文組織的研究深入分析了大語言模型中的偏見,發(fā)現(xiàn)這些模型生成的內(nèi)容對女性存在明顯的偏見。
研究中,研究人員要求大語言模型為不同性別、性取向和文化背景的人生成故事。結(jié)果顯示,大語言模型傾向于將工程師、教師和醫(yī)生等地位較高的工作分配給男性,而將家務(wù)勞動(dòng)等傳統(tǒng)上被低估或被社會(huì)污名化的角色分配給女性。
Llama 2 生成的內(nèi)容也存在類似的偏見,例如,女性從事家務(wù)勞動(dòng)的頻率是男性的四倍。
聯(lián)合國教科文組織總干事阿祖萊指出,隨著大語言模型的使用越來越廣泛,這些工具有能力在不知不覺中改變?nèi)藗兊恼J(rèn)知。因此,即使生成內(nèi)容中存在微小的性別偏見,也可能導(dǎo)致現(xiàn)實(shí)世界中的不平等加劇。
(舉報(bào))