??劃重點:
1. 一組研究人員警告大眾,不要將ChatGPT等大型語言模型用于心理學(xué)和心理治療,因其生成心理有用信息的能力有限,缺乏同理心和人類理解。
2. 他們呼吁學(xué)術(shù)界與產(chǎn)業(yè)界合作,開展類似“人類基因組計劃”的國際研究項目,共同發(fā)展心理學(xué)上有用的語言模型,包括數(shù)據(jù)集和標(biāo)準(zhǔn)基準(zhǔn)。
3. 研究人員擔(dān)心這些模型可能引發(fā)心理傷害,但也認(rèn)為進(jìn)一步的研究和發(fā)展可以實現(xiàn)轉(zhuǎn)型性的心理應(yīng)用。
站長之家(ChinaZ.com) 10月23日 消息:一項最新研究警告大眾,不要在心理學(xué)和心理治療領(lǐng)域使用ChatGPT等大型語言模型。研究人員認(rèn)為,這些模型在生成心理上有用的信息方面存在根本性的限制,同時缺乏同理心和對人類理解的能力。
研究中的共同作者之一、斯坦福大學(xué)研究生院教育數(shù)據(jù)科學(xué)教授Dora Demszky表示:“它們無法表現(xiàn)出同理心或人類理解。”
圖源備注:圖片由AI生成,圖片授權(quán)服務(wù)商Midjourney
研究人員指出,大型語言模型缺乏"心靈理論",即對他人心理狀態(tài)的理解。大衛(wèi)·耶格(David Yeager),德克薩斯大學(xué)奧斯汀分校心理學(xué)教授兼研究論文的合著者之一,指出雖然這些模型可以生成類似人類的文本,但它們不具備專業(yè)心理學(xué)家或親密友人的深刻理解。
為了解決這一問題,研究人員呼吁學(xué)術(shù)界和產(chǎn)業(yè)界合作,開展類似“人類基因組計劃”的國際研究項目。這一合作應(yīng)包括開發(fā)關(guān)鍵數(shù)據(jù)集、制定標(biāo)準(zhǔn)基準(zhǔn),特別是用于心理治療,以及共享的計算基礎(chǔ)設(shè)施,以發(fā)展在心理學(xué)領(lǐng)域有用的語言模型。
這一呼吁的背后有雙重動機。首先,研究人員擔(dān)心“制造生成性人工智能系統(tǒng)的公司因為沒有評估這些系統(tǒng)對人類思維或行為的影響而承擔(dān)心理傷害責(zé)任的世界”,耶格說。其次,他們看到了這些模型的潛力:“我們認(rèn)為,盡管大型語言模型有潛力推動心理測量、實驗和實踐,但它們還沒有準(zhǔn)備好用于最具變革性的心理應(yīng)用,但進(jìn)一步的研究和發(fā)展可能會實現(xiàn)這種用途?!?/p>
(舉報)