**劃重點:**
1. ?? AI研究員指出大型語言模型(LLMs)可能對科學(xué)完整性構(gòu)成威脅。
2. ?? 牛津研究呼吁改變LLMs的使用方式,建議將其作為“零射擊翻譯器”以確保輸出的事實準(zhǔn)確性。
3. ?? 研究強調(diào),信任LLMs作為可靠信息來源可能導(dǎo)致科學(xué)真相受損,呼吁負(fù)責(zé)任的LLMs使用。
站長之家(ChinaZ.com) 11月24日 消息:在最新的一篇研究中,牛津大學(xué)互聯(lián)網(wǎng)研究所的人工智能研究員發(fā)出了對大語言模型(LLMs)對科學(xué)真相構(gòu)成威脅的警告。由Brent Mittelstadt、Chris Russell和Sandra Wachter等研究員在《自然人類行為》期刊上發(fā)表的論文中,他們指出,基于GPT-3.5架構(gòu)等LLMs并非絕對的真實信息來源,可能產(chǎn)生他們所稱的“幻覺”——即不真實的回應(yīng)。
圖源備注:圖片由AI生成,圖片授權(quán)服務(wù)商Midjourney
一年前,科技巨頭Meta發(fā)布了一款名為“Galactica”的大型語言模型,旨在協(xié)助科學(xué)家。然而,與Meta期望相反,“Galactica”在經(jīng)歷了三天的激烈批評后黯然失色。一年后,在科學(xué)研究領(lǐng)域?qū)LMs的依賴仍然未有顯著改變。
研究呼吁改變LLMs的使用方式,建議將其作為“零射擊翻譯器”。與其依賴LLMs作為知識庫,用戶應(yīng)提供相關(guān)信息并指導(dǎo)模型將其轉(zhuǎn)化為期望的輸出。這種方法有助于更容易驗證輸出的事實準(zhǔn)確性和與提供的輸入一致性。
論文中指出的核心問題在于這些模型訓(xùn)練所使用的數(shù)據(jù)的性質(zhì)。設(shè)計用于提供有用且具有說服力回應(yīng)的語言模型,缺乏對其準(zhǔn)確性或與事實一致性的保證。在從在線內(nèi)容獲取的大規(guī)模數(shù)據(jù)集上進(jìn)行訓(xùn)練,其中可能包含虛假陳述、觀點和創(chuàng)造性寫作,使LLMs接觸到非事實信息。
Mittelstadt教授強調(diào)了用戶信任LLMs作為可靠信息來源的風(fēng)險,類似于人類專家。由于它們被設(shè)計成聽起來像人類的代理,用戶可能會被誤導(dǎo),即使回應(yīng)缺乏事實依據(jù)或呈現(xiàn)事實的偏見版本,也會接受其準(zhǔn)確性。
為了保護(hù)科學(xué)真相和教育免受不準(zhǔn)確和有偏見信息的傳播,研究呼吁對LLMs的負(fù)責(zé)任使用設(shè)定明確期望。論文建議用戶,特別是在準(zhǔn)確性至關(guān)重要的任務(wù)中,應(yīng)提供包含事實信息的翻譯提示。
Wachter教授強調(diào)了在科學(xué)界負(fù)責(zé)任使用LLMs的作用以及對事實信息的信心的重要性。研究呼吁警惕如果LLMs在生成和傳播科學(xué)文章中被隨意使用可能導(dǎo)致的嚴(yán)重危害。
Russell教授強調(diào)了對LLMs提供的機會進(jìn)行謹(jǐn)慎考慮,并促使反思這項技術(shù)是否應(yīng)該因為它能夠提供某些機會而被授予這些機會。
(舉報)