站長之家(ChinaZ.com) 6月19日消息:出版集團 Gannett 計劃在其用于發(fā)布新聞的系統(tǒng)中引入生成式人工智能,這將有助于節(jié)省資金并提高效率。然而,該公司表示將確保在使用技術(shù)時不會自動部署,而是需要人工監(jiān)督。
擁有 200 多家日報的美國最大報紙出版商 Gannett 的產(chǎn)品負責(zé)人 Renn Turiano 在接受采訪時表示,生成式人工智能可以提高效率,減少記者的繁瑣任務(wù)。
然而,Turiano 補充道:「對于其他新聞服務(wù)來說,追求速度是一個錯誤,」他并沒有指明具體的機構(gòu)?!肝覀儾粫高@個錯誤。」
Gannett 并非唯一面臨此困境的公司。例如,路透社總裁 Paul Bascobert 在回應(yīng)記者有關(guān)公司計劃的評論請求時表示,隨著新聞機構(gòu)采用 AI 技術(shù),它們采取了負責(zé)任的方法以確保準(zhǔn)確性和信任。
許多美國新聞機構(gòu)正在探討如何最好地整合生成式人工智能工具,這些工具可以根據(jù)用戶的提示或問題生成新的內(nèi)容或數(shù)據(jù)。
然而,一些專家指出,生成式人工智能的局限性,包括「產(chǎn)生幻覺」或以確定性的語氣提供錯誤信息,對于一個追求準(zhǔn)確性的行業(yè)來說尤其存在問題。
「我目前的觀點是,我不會建議將這些模型用于自動發(fā)布到公共渠道的新聞用例,」美國西北大學(xué)副教授 Nicholas Diakopoulos 說道。
Gannett 的戰(zhàn)略反映了許多主流新聞機構(gòu)采取的審慎態(tài)度。這種謹慎是因為媒體機構(gòu)在使用生成式人工智能時發(fā)生了公開的失誤,包括 CNET 和 Men's Journal 等媒體。這兩家出版物使用這項技術(shù)生成的文章包含了事實錯誤。
Gannett 下一季度將推出一個使用 AI 來識別文章中最重要的要點并在文章頂部創(chuàng)建項目摘要的實時試點項目。該功能將在 USA Today 于第四季度推出。記者將最終決定是否使用 AI 生成的內(nèi)容。Gannett 將最終將這種摘要技術(shù)納入其發(fā)布系統(tǒng)。
Gannett 的記者們正在努力確保他們不會被技術(shù)取代。6 月 5 日,數(shù)百名員工因員工削減和工資停滯而罷工。生成式人工智能是與公司談判中的一個爭議點,工會表示。
公司發(fā)言人表示,他們使用的 AI 不會取代記者,而是作為一種工具,幫助他們提高效率,專注于創(chuàng)造更有價值的內(nèi)容。
去年,擁有超過 200 家日報發(fā)行機構(gòu)的 Gannett 在與 GateHouse 合并后欠下 12.3 億美元債務(wù),裁員超過 600 名員工。但它的成本削減使其盈利。
作為推動力的一部分,Gannett 還正在開發(fā)一種生成式人工智能工具,可以將長篇故事分成不同長度和格式,例如要點、照片的標(biāo)題或幻燈片。
為了對文章進行總結(jié),Gannett 依賴于 Cohere,這是一家與微軟支持的 OpenAI 競爭的公司,后者開發(fā)了 ChatGPT 聊天機器人。Gannett 花費了兩周時間,用其記者撰寫的摘要對 Cohere 的大型語言模型進行了訓(xùn)練,模型使用了先前發(fā)表的 1000 篇文章。
為了進一步訓(xùn)練模型,USA Today 團隊的記者審查和編輯了自動生成的摘要和要點亮點。
雖然大多數(shù)新聞機構(gòu)長期以來一直依賴某種形式的人工智能來推薦和個性化內(nèi)容,但生成式人工智能的新發(fā)展重新引起了行業(yè)的興趣。
其他新聞機構(gòu)對生成式人工智能的態(tài)度不同,采取了不同程度的承諾和謹慎。據(jù)路透社看到的《紐約時報》備忘錄和《華盛頓郵報》的聲明顯示,這兩家媒體目前正處于規(guī)劃階段。
與路透社競爭的彭博社正在開發(fā)自己的生成式人工智能模型 BloombergGPT,該模型在金融數(shù)據(jù)上進行了訓(xùn)練。
《紐約時報》、《華盛頓郵報》和彭博社拒絕對他們的計劃進行進一步評論。
根據(jù)路透社主編 Alessandra Galloni 關(guān)于路透社記者的 AI 指導(dǎo)的五月份發(fā)布的信息,路透社目前正在使用 AI 進行語音轉(zhuǎn)文本,以制作視頻腳本和字幕,但并不發(fā)布由 AI 生成的文章、視頻或照片。
BBC News Labs,該廣播公司的創(chuàng)新孵化器,正在測試是否可以半自動化生成簡短解釋性內(nèi)容。
對于這些故事,BBC News Labs 建立了一個原型,利用 BBC 的預(yù)發(fā)布內(nèi)容,并使用 ChatGPT-3 模型進行寫作?!赋怯杏浾呤謩犹崛?,否則這些故事無法被任何受眾接觸到,」BBC News Labs 的負責(zé)人 Miranda Marcus 表示。
「這些工具能夠講述怎樣的故事,這是一個完全不同的領(lǐng)域,」Marcus 補充道?!傅覀冞€沒有達到那個階段?!?/p>
隨著 AI 技術(shù)的發(fā)展和生成式人工智能的出現(xiàn),新聞機構(gòu)正試圖找到合適的平衡,以利用這一技術(shù)的潛力,同時避免其潛在的問題和局限性。一些新聞機構(gòu)像 Gannett 一樣采取審慎的方法,將人工智能作為工具來提高效率和創(chuàng)造更有價值的內(nèi)容,而不是自動取代記者。然而,這仍然是一個正在探索和發(fā)展中的領(lǐng)域,需要進一步的研究和實踐來確保生成式人工智能的準(zhǔn)確性和可靠性。
生成式人工智能的一些局限性包括可能產(chǎn)生錯誤信息、缺乏準(zhǔn)確性和權(quán)威性等問題,這對新聞行業(yè)來說尤為重要。因此,許多新聞機構(gòu)對于將生成式人工智能應(yīng)用于自動發(fā)布到公共渠道的新聞用例持謹慎態(tài)度。他們更傾向于將 AI 用于輔助記者工作,例如生成文章摘要、總結(jié)和概括,以及自動化其他繁瑣的任務(wù),從而提高生產(chǎn)效率和工作質(zhì)量。
盡管生成式人工智能的應(yīng)用前景廣闊,但目前仍存在技術(shù)和倫理挑戰(zhàn)。對于新聞行業(yè)來說,確保準(zhǔn)確性、可靠性和可信度仍然是至關(guān)重要的。因此,新聞機構(gòu)需要采取謹慎和負責(zé)任的方法,確保生成式人工智能技術(shù)的正確使用,并保持人工的監(jiān)督和編輯,以確保發(fā)布的內(nèi)容符合新聞行業(yè)的標(biāo)準(zhǔn)和期望。
(舉報)