站長之家(ChinaZ.com) 4 月 21 日消息:本周,微軟演示了 VASA–1,這是一個(gè)基于靜態(tài)圖像、音頻樣本和文本腳本來創(chuàng)建人物講話視頻的框架,微軟聲稱——這是正確的——這個(gè)框架太危險(xiǎn)了,不適合向公眾發(fā)布。
這些由 AI 生成的視頻,可以讓人物以克隆的聲音令人信服地配合腳本說話,正是美國聯(lián)邦貿(mào)易委員會(huì)上個(gè)月警告的那種情形,之前已提出規(guī)則以防止利用 AI 技術(shù)進(jìn)行冒充詐騙。
微軟團(tuán)隊(duì)在宣布中就承認(rèn)了這一點(diǎn),他們解釋說由于倫理考慮,此技術(shù)沒有發(fā)布。他們堅(jiān)稱,他們展示的研究用于生成虛擬互動(dòng)人物,而不是為了冒充任何人。因此,沒有計(jì)劃推出任何產(chǎn)品或 API。
微軟的研究人員聲明:「我們的研究重點(diǎn)是為虛擬 AI 化身生成視覺感知技能,以期望正向應(yīng)用。」他們接著說,「本意并不是創(chuàng)造用來誤導(dǎo)或欺騙的內(nèi)容。
然而,像其他相關(guān)的內(nèi)容生成技術(shù)一樣,它仍可能被濫用來冒充人類。我們反對任何創(chuàng)建誤導(dǎo)或有害真實(shí)人物內(nèi)容的行為,并且對將我們的技術(shù)應(yīng)用于促進(jìn)偽造檢測感到興趣。」
生物特征認(rèn)證公司Token 的主席,也是常談生成 AI 的演講者 Kevin Surace 通過電子郵件告訴 The Register,雖然之前有技術(shù)演示顯示了由靜態(tài)畫面和克隆的聲音文件動(dòng)畫化的臉,但微軟的示范反映了最新技術(shù)狀態(tài)。
「個(gè)性化電子郵件和其他商業(yè)群眾通信的潛力是巨大的,」他認(rèn)為?!干踔吝€包括動(dòng)畫化舊照片。從某種程度上說,這只是好玩,另一方面它有我們在未來幾個(gè)月和幾年內(nèi)都會(huì)使用的實(shí)際商業(yè)應(yīng)用?!?/p>
網(wǎng)絡(luò)安全公司 Deeptrace 在 2019 年進(jìn)行評估時(shí)發(fā)現(xiàn),深度偽造的「樂趣」在于 96% 是非自愿色情內(nèi)容。
盡管如此,微軟的研究人員認(rèn)為,能夠創(chuàng)造出看起來逼真的人物并將文字放到他們嘴里,是有正面用途的。
他們在一篇研究論文中提出,「此類技術(shù)有望豐富數(shù)字通信,提高那些有溝通障礙者的可及性,通過互動(dòng) AI 輔導(dǎo)轉(zhuǎn)變教育方法,以及在醫(yī)療保健中提供治療支持和社交互動(dòng)。」值得注意的是,該論文中沒有提及「色情」或「假信息」。
盡管有爭議,AI 生成的視頻不完全等同于深度偽造,后者被定義為數(shù)字操縱而不是生成方法,但當(dāng)一個(gè)令人信服的假象可以不用剪切粘貼技術(shù)而輕易地被使用時(shí),這種區(qū)別就變得無關(guān)緊要了。
當(dāng)被問及微軟不向公眾發(fā)布這項(xiàng)技術(shù)以防濫用的事實(shí)時(shí),Surace 對限制的可行性表示懷疑。
他說:「微軟和其他公司目前已經(jīng)暫停,直到他們解決隱私和使用問題。」他問道,「將如何規(guī)范那些出于正確理由使用此技術(shù)的人?」
Surace 補(bǔ)充說,已經(jīng)有相似精細(xì)的開源模型存在,例如 EMO。他說:「人們可以從 GitHub 提取源代碼并圍繞它構(gòu)建服務(wù),這可能會(huì)與微軟的輸出相匹敵。」他注意到,「因?yàn)檫@個(gè)領(lǐng)域的開源特性,不管怎樣,規(guī)范它都是不可能的?!?/strong>
盡管如此,世界各地的國家正在嘗試規(guī)范 AI 偽造的人物。加拿大、英國等國家都有可以應(yīng)用于深度偽造的規(guī)定,其中一些規(guī)定滿足了更廣泛的政治目標(biāo)。正是這個(gè)星期,英國剛剛使未經(jīng)同意制作色情深度偽造圖像成為非法行為。在英國的 2023 年在線安全法下,分享此類圖片已是不允許的。
今年 1 月,美國兩黨議員提出了 2024 年打擊顯著偽造圖像和非自愿編輯行為法案(DEFIANCE Act),該法案為非自愿深度偽造圖像的受害者在法庭上提起民事訴訟創(chuàng)造了途徑。
以及在周二,4 月 16 日,美國參議院司法委員會(huì)隱私、技術(shù)與法律小組委員會(huì)舉行了題為「人工智能監(jiān)管:選舉深度偽造」的聽證會(huì)。
在準(zhǔn)備好的聲明中,DeepMedia 的 CEO Rijul Gupta 說道:
「深度偽造最令人擔(dān)憂的方面是,它們能夠?yàn)閴娜颂峁┖侠淼姆裾J(rèn)理由,使他們能夠?qū)⒄嬲膬?nèi)容視為假的。公眾信任的這種侵蝕打擊了我們社會(huì)結(jié)構(gòu)的核心和民主的基礎(chǔ)。人類的大腦天生就相信所見所聞,因此特別容易受到深度偽造的欺騙。隨著這些技術(shù)變得越來越復(fù)雜,它們有可能破壞我們社會(huì)所依賴的共同現(xiàn)實(shí)感,營造出一種不確定和懷疑的氛圍,讓公民質(zhì)疑他們遇到的每一條信息的真實(shí)性。」
(舉報(bào))