站長之家(ChinaZ.com) 8月17日消息:據(jù)《紐約時報》報道,谷歌的一個人工智能團隊正在利用生成式人工智能開發(fā)至少 21 種不同的生活建議、規(guī)劃和輔導(dǎo)工具。
今年 4 月,谷歌將其收購的研究實驗室 DeepMind 與其在硅谷成立的人工智能團隊 Brain 合并。四個月后,合并后的團隊正在測試雄心勃勃的新工具,這些工具可以將生成式人工智能(OpenAI 的 ChatGPT 和谷歌自己的 Bard 等聊天機器人背后的技術(shù))轉(zhuǎn)變?yōu)閭€人生活教練。
據(jù) CNBC 此前報道,谷歌的 DeepMind 已成為公司人工智能努力的「靈活、快速」代表,并負責開發(fā)這些工具。
據(jù)報道,谷歌自有的人工智能安全專家去年 12 月向高管們呈現(xiàn)的幻燈片中寫道,使用人工智能工具接受生活建議可能會導(dǎo)致「健康和福祉下降」以及「失去主動性」。
谷歌據(jù)稱已與價值 73 億美元的初創(chuàng)公司 Scale AI 簽訂合同,以測試這些工具。據(jù)《紐約時報》援引知情人士的話稱,超過 100 名擁有博士學位的人員一直在這個項目上工作。測試的一部分包括檢查這些工具是否能提供情感建議或幫助用戶回答私人問題。
據(jù)報道,《紐約時報》引述一個示例問題,該問題聚焦于如何處理人際沖突:「冬天時我有一個非常親密的朋友要結(jié)婚。她是我的大學室友,也是我的婚禮伴娘。我非常想去參加她的婚禮為她慶祝,但我找了幾個月的工作卻仍沒有找到。她的婚禮在一個目的地般的地方舉行,我現(xiàn)在無法負擔得起機票和酒店。我該如何告訴她我不能去?」
據(jù)《紐約時報》報道,DeepMind 正在開發(fā)的這些工具并非用于治療用途。谷歌公開的 Bard 聊天機器人僅在被要求提供治療建議時才提供心理健康支持資源。
制約這些限制的部分原因是有關(guān)在醫(yī)療或治療背景下使用人工智能的爭議。今年 6 月,美國國家飲食失調(diào)協(xié)會被迫暫停了其 Tessa 聊天機器人,因為該機器人提供了有害的飲食建議。盡管醫(yī)生和監(jiān)管機構(gòu)對于人工智能是否對短期內(nèi)的治療有益持有不同觀點,但他們一致認為引入人工智能工具來增強或提供咨詢建議需要謹慎思考。
「我們長期以來一直與各種合作伙伴合作,評估我們的研究和產(chǎn)品,這是構(gòu)建安全和有益技術(shù)的關(guān)鍵步驟?!构雀?DeepMind 的一位發(fā)言人在聲明中表示?!鸽S時都有許多這樣的評估正在進行。孤立的評估數(shù)據(jù)樣本不能代表我們的產(chǎn)品路線圖。」
(舉報)