11.11云上盛惠!海量產(chǎn)品 · 輕松上云!云服務(wù)器首年1.8折起,買(mǎi)1年送3個(gè)月!超值優(yōu)惠,性能穩(wěn)定,讓您的云端之旅更加暢享??靵?lái)騰訊云選購(gòu)吧!
站長(zhǎng)之家(ChinaZ.com)4月16日 消息:抖音集團(tuán)在抖音安全與信任中心開(kāi)放日活動(dòng)上,首次向公眾全面公開(kāi)了其算法原理、機(jī)制及治理政策。此次開(kāi)放日活動(dòng)旨在邀請(qǐng)廣大網(wǎng)友深入了解抖音的推薦算法,體驗(yàn)抖音安全與信任中心的功能,并廣泛征集社會(huì)各界的意見(jiàn)和建議,共同構(gòu)建一個(gè)更加美好、安全、可信任的社區(qū)環(huán)境。抖音的推薦算法作為人工智能機(jī)器學(xué)習(xí)技術(shù)的重要應(yīng)用場(chǎng)?
在WWDC開(kāi)發(fā)者大會(huì)上,蘋(píng)果正式推出iOS18系統(tǒng),iPhone15ProMax現(xiàn)在可以升級(jí)到iOS18測(cè)試版。Geekbench跑分網(wǎng)站顯示,運(yùn)行iOS18測(cè)試版的iPhone15ProMax在神經(jīng)引擎推理測(cè)試中的總分達(dá)到了7516分,相比之下,運(yùn)行iOS17.5.1的iPhone15ProMax的成績(jī)是6000分左右,前者高出25%左右。它不但有30多種層來(lái)支持廣泛的深度學(xué)習(xí)還支持諸如樹(shù)集成、SVM和廣義線性模型等標(biāo)準(zhǔn)模型。
NeuralNetworkDiffusion是由新加坡國(guó)立大學(xué)高性能計(jì)算與人工智能實(shí)驗(yàn)室開(kāi)發(fā)的神經(jīng)網(wǎng)絡(luò)擴(kuò)散模型。該模型利用擴(kuò)散過(guò)程生成高質(zhì)量的圖像,適用于圖像生成和修復(fù)等任務(wù)。要了解更多關(guān)于NeuralNetworkDiffusion的信息并開(kāi)始創(chuàng)作,歡迎訪問(wèn)官方網(wǎng)站。
亞馬遜的研究人員在一篇論文中介紹了一種創(chuàng)新方法,旨在增強(qiáng)神經(jīng)網(wǎng)絡(luò)處理復(fù)雜表格數(shù)據(jù)時(shí)的性能。表格數(shù)據(jù)通常由行和列組成,看似簡(jiǎn)單,但當(dāng)這些列在性質(zhì)和統(tǒng)計(jì)特征上差異巨大時(shí),就會(huì)變得復(fù)雜起來(lái)。這項(xiàng)研究為神經(jīng)網(wǎng)絡(luò)在處理復(fù)雜表格數(shù)據(jù)時(shí)的改進(jìn)提供了新的思路和方法,有望在實(shí)際應(yīng)用中取得更好的效果。
LiquidAI,一家由MIT孵化的新興公司,近日成功完成了一輪接近4千萬(wàn)美元的種子輪融資,其目標(biāo)是構(gòu)建一種全新類(lèi)型的人工智能,被稱(chēng)為液態(tài)神經(jīng)網(wǎng)絡(luò)。這一創(chuàng)新性的技術(shù)基于液態(tài)神經(jīng)網(wǎng)絡(luò)架構(gòu),旨在提供更為精簡(jiǎn)、可解釋且動(dòng)態(tài)適應(yīng)的人工智能系統(tǒng)。該公司希望通過(guò)商業(yè)化液態(tài)神經(jīng)網(wǎng)絡(luò)技術(shù),競(jìng)爭(zhēng)構(gòu)建GPT模型的基礎(chǔ)模型公司,致力于打造超越傳統(tǒng)GPT的最佳新型Liquid基礎(chǔ)模型。
今天,蘋(píng)果分享了一個(gè)溫馨的廣告,展示了其新推出的「?jìng)€(gè)人聲音」輔助功能,該功能適用于iPhone、iPad和Mac。圖片來(lái)自Apple蘋(píng)果公司在iOS17.iPadOS17和macOSSonoma中引入的個(gè)人聲音功能允許那些面臨失去語(yǔ)言能力風(fēng)險(xiǎn)的用戶(hù)創(chuàng)建一個(gè)類(lèi)似于他們實(shí)際聲音的合成語(yǔ)音,以便他們能繼續(xù)與他人交流。通過(guò)個(gè)人聲音功能,蘋(píng)果能夠完全在設(shè)備端訓(xùn)練神經(jīng)網(wǎng)絡(luò),從在保護(hù)用戶(hù)隱私的同時(shí)提升語(yǔ)言輔助功能。
馬里蘭&NYU合力解剖神經(jīng)網(wǎng)絡(luò),推出一種新的類(lèi)反轉(zhuǎn)方法,稱(chēng)為"Plug-InInversion",用于生成神經(jīng)網(wǎng)絡(luò)模型的可解釋圖像。在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中,一些神經(jīng)元可能永遠(yuǎn)輸出0,被稱(chēng)為"死節(jié)點(diǎn)"這些節(jié)點(diǎn)可以通過(guò)優(yōu)化算法生成詭異和恐怖的圖像。PII方法為神經(jīng)網(wǎng)絡(luò)模型的解釋提供了新的工具和途徑,有望加深對(duì)模型內(nèi)部行為的理解,進(jìn)一步推動(dòng)神經(jīng)網(wǎng)絡(luò)研究的發(fā)展。
最新研究表明,卷積神經(jīng)網(wǎng)絡(luò)在大規(guī)模數(shù)據(jù)集上能夠與視覺(jué)變換器媲美,挑戰(zhàn)了以往認(rèn)為視覺(jué)變換器在這方面具有卓越性能的觀點(diǎn)。在計(jì)算機(jī)視覺(jué)領(lǐng)域,ConvNets一直以來(lái)都是在各種基準(zhǔn)測(cè)試中取得卓越性能的標(biāo)準(zhǔn)。這些結(jié)果突顯了同時(shí)擴(kuò)展計(jì)算和數(shù)據(jù)資源的重要性,為計(jì)算機(jī)視覺(jué)研究的未來(lái)帶來(lái)了新的啟示。
10月27日,全球頂級(jí)機(jī)器人開(kāi)發(fā)商波士頓動(dòng)力在官網(wǎng)展示了一項(xiàng)新的研究,通過(guò)將ChatGPT、Spot以及其他AI模型相結(jié)合,開(kāi)發(fā)了一種會(huì)說(shuō)話的導(dǎo)游機(jī)器狗。該機(jī)器狗能夠根據(jù)文字、語(yǔ)音提示與人類(lèi)進(jìn)行交談,同時(shí)提供了視覺(jué)問(wèn)答功能,可以分析攝像頭拍攝的畫(huà)面,自動(dòng)生成圖像說(shuō)明。波士頓動(dòng)力以開(kāi)發(fā)高度先進(jìn)、靈活且具有實(shí)用性的機(jī)器人聞名,其產(chǎn)品在工業(yè)、研究和消費(fèi)領(lǐng)域都有
35年來(lái),認(rèn)知科學(xué)、人工智能、語(yǔ)言學(xué)和哲學(xué)領(lǐng)域的研究人員一直在爭(zhēng)論神經(jīng)網(wǎng)絡(luò)是否能實(shí)現(xiàn)類(lèi)似人類(lèi)的系統(tǒng)泛化。人們一直認(rèn)為,AI無(wú)法像人類(lèi)一樣具有「系統(tǒng)泛化」能力,不能對(duì)沒(méi)有經(jīng)過(guò)訓(xùn)練的知識(shí)做到「舉一反三」,幾十年來(lái)這一直被認(rèn)為是AI的最大局限之一。我們正一步步接近未來(lái):機(jī)器不僅能理解人類(lèi)的的語(yǔ)言能掌握細(xì)微的差別和語(yǔ)義,從促進(jìn)更加無(wú)縫和直觀的人機(jī)交互未來(lái)。