劃重點(diǎn):
?? 用戶批評Gemini在不合適的歷史背景下生成多樣化圖像
?? 谷歌趕緊修復(fù)新的AI工具,避免被指責(zé)過于防止種族歧視
?? AI在多樣性問題上的失誤引發(fā)了爭議
站長之家(ChinaZ.com)2月22日 消息:谷歌正在竭力修復(fù)其新的AI圖片生成工具,因?yàn)橛腥寺暦Q該工具過度糾正了可能存在種族歧視的風(fēng)險(xiǎn)。
用戶指出,谷歌的Gemini機(jī)器人在歷史背景不符的情況下提供了各種性別和種族的圖像。例如,一個(gè)搜索美國開國元?jiǎng)讏D片的提示出現(xiàn)了女性和有色人種的圖片。公司表示,其工具"偏離了目標(biāo)"。Gemini體驗(yàn)高級主管杰克·克拉維奇克表示:"Gemini的AI圖像生成確實(shí)生成了各種各樣的人物。這通常是一件好事,因?yàn)槭澜绺鞯氐娜硕荚谑褂盟?。但在這里,它沒有做到位。"他補(bǔ)充道:"我們正在立即改進(jìn)這類描繪。"
這不是AI第一次在多樣性問題上犯錯(cuò)。例如,谷歌曾因其照片應(yīng)用將一張黑人夫婦的照片標(biāo)記為"大猩猩"而不得不道歉,這已經(jīng)接近十年了。競爭對手OpenAI也被指責(zé)持續(xù)傳播有害的刻板印象,用戶發(fā)現(xiàn)其Dall-E圖像生成器對首席執(zhí)行官的查詢的回應(yīng)主要是白人男性的圖片。
谷歌面臨著證明自己在AI發(fā)展方面沒有落后的壓力,上周發(fā)布了Gemini的最新版本。這款機(jī)器人能夠根據(jù)書面查詢創(chuàng)建圖片。它很快引起了批評,指責(zé)谷歌訓(xùn)練機(jī)器人成為可笑的"喚醒"。
計(jì)算機(jī)科學(xué)家德巴格亞·達(dá)斯寫道:"令人尷尬的是,讓谷歌Gemini承認(rèn)白人的存在是非常困難的。"作家兼幽默作家弗蘭克·J·弗萊明在回應(yīng)他要求一張維京人圖片時(shí)得到的結(jié)果時(shí)說:"拜托。"這些指責(zé)在美國右翼圈子中迅速傳播開來,許多大型科技平臺因被指控存在自由主義偏見而已經(jīng)面臨了抨擊。
克拉維奇克先生表示,公司認(rèn)真對待代表性和偏見問題,希望其結(jié)果能反映其全球用戶群。他在X(以前是Twitter)上寫道:"歷史背景有更多的細(xì)微差別,我們將進(jìn)一步調(diào)整以適應(yīng)。"他在那里寫道:"這是對齊過程的一部分-對反饋的迭代。謝謝你們,繼續(xù)保持!"
(舉報(bào))