要點(diǎn):
OpenAI宣布董事會有權(quán)否決決定,特別是對于GPT-5等前沿模型的安全風(fēng)險,公司成立安全顧問團(tuán)隊(duì),定期向管理層和董事會報(bào)告。
公司成立三個安全團(tuán)隊(duì),分別應(yīng)對當(dāng)下、不久的將來和遙遠(yuǎn)的未來的AI風(fēng)險,主要跟蹤網(wǎng)絡(luò)安全、CBRN風(fēng)險、說服風(fēng)險和模型自主性風(fēng)險。
OpenAI在技術(shù)開發(fā)上設(shè)立了限制,對不同種類的AI風(fēng)險要求模型安全得分達(dá)標(biāo)后才能進(jìn)入下一個開發(fā)階段,發(fā)布了“前沿風(fēng)險防范框架”。
站長之家(ChinaZ.com)12月20日 消息:OpenAI最近發(fā)布了一項(xiàng)重要公告,宣布公司董事會現(xiàn)在有權(quán)否決奧特曼的決定,尤其是關(guān)于GPT-5等前沿模型的安全風(fēng)險。這是上月內(nèi)訌的后續(xù),總裁Greg Brockman和前首席科學(xué)家Ilya Sutskever已退出董事會,公司管理層與董事會完全分離,使得公司管理層做決策的同時董事會有權(quán)推翻決策。
在新的安全框架下,公司成立了專門的安全顧問團(tuán)隊(duì),每月向管理層和董事會報(bào)告,確保決策者充分了解現(xiàn)有模型如ChatGPT的濫用情況。此外,公司對自己的技術(shù)開發(fā)設(shè)立了一系列限制,確保模型安全得分達(dá)標(biāo)后才能進(jìn)入下一個開發(fā)階段,發(fā)布了“前沿風(fēng)險防范框架”。
為了更全面地應(yīng)對不同時間尺度的AI風(fēng)險,OpenAI成立了三個安全團(tuán)隊(duì),分別負(fù)責(zé)當(dāng)下、不久的將來和遙遠(yuǎn)的未來的風(fēng)險。這些團(tuán)隊(duì)涵蓋了網(wǎng)絡(luò)安全、CBRN風(fēng)險、說服風(fēng)險和模型自主性風(fēng)險等四個主要安全類別。對于開發(fā)中的前沿模型,公司將跟蹤并評估這四個方面的安全風(fēng)險,通過“記分卡”將其分級為“低、中、高、重大危險”。
值得注意的是,公司還將進(jìn)行定期的安全演習(xí),對業(yè)務(wù)和公司自身文化進(jìn)行壓力測試,以及邀請第三方組成紅隊(duì),對模型進(jìn)行獨(dú)立評估。這一系列措施旨在確保模型的安全性,并在風(fēng)險評估中采取相應(yīng)的緩解措施。
最后,OpenAI透露已開創(chuàng)一項(xiàng)新的研究,衡量風(fēng)險如何隨模型規(guī)模擴(kuò)大而演變,嘗試解決“未知的未知”。這表明公司對AI可能帶來的災(zāi)難性風(fēng)險采取了認(rèn)真的態(tài)度,致力于提前預(yù)測并防范潛在的問題。
(舉報(bào))