11.11云上盛惠!海量產(chǎn)品 · 輕松上云!云服務(wù)器首年1.8折起,買(mǎi)1年送3個(gè)月!超值優(yōu)惠,性能穩(wěn)定,讓您的云端之旅更加暢享??靵?lái)騰訊云選購(gòu)吧!
微軟在官網(wǎng)開(kāi)源了,最新動(dòng)態(tài)蛋白質(zhì)生成模型BioEmu-1。BioEmu-1能在單個(gè)GPU上每小時(shí)生成數(shù)千種蛋白質(zhì)結(jié)構(gòu),生成效率比傳統(tǒng)MD模擬提高了幾個(gè)數(shù)量級(jí)。在預(yù)測(cè)人類血管緊張素轉(zhuǎn)換酶2的構(gòu)象柔性方面,BioEmu-1成功揭示了ACE2在不同構(gòu)象下的動(dòng)態(tài)特性,證明了其在解析生物大分子相互作用及預(yù)測(cè)蛋白質(zhì)功能方面的巨大潛力。
微軟在官網(wǎng)發(fā)布了視覺(jué)Agent解析框架OmniParser最新版本V2.0,可將DeepSeek-R1、GPT-4o、Qwen-2.5VL等模型,變成可在計(jì)算機(jī)使用的AIAgent。與V1版本相比,V2在檢測(cè)較小的可交互UI元素時(shí)準(zhǔn)確率更高、推理速度更快,延遲降低了60%。當(dāng)任務(wù)是“點(diǎn)擊設(shè)置按鈕”時(shí),OmniParser不僅提供了設(shè)置按鈕的邊界框和ID提供了其功能描述,顆顯著提高了模型的準(zhǔn)確性和魯棒性。
歡迎來(lái)到【AI日?qǐng)?bào)】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開(kāi)發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/1、巨量引擎旗下AIGC工具“即創(chuàng)”正式版上線巨量引擎的AIGC工具“即創(chuàng)”正式上線,提供多種內(nèi)容生成方式,包括AI腳本生成、智能成片和數(shù)字人等。用戶反饋新版本在圖像質(zhì)量和細(xì)節(jié)處理上顯著下降,導(dǎo)致微軟搜索部門(mén)負(fù)責(zé)人JordiRibas承認(rèn)并采取措施恢復(fù)舊版。
微軟研究院開(kāi)源了目前最強(qiáng)小參數(shù)模型——phi-4。去年12月12日,微軟首次展示了phi-4,參數(shù)只有140億性能卻極強(qiáng),在GPQA研究生水平、MATH數(shù)學(xué)基準(zhǔn)測(cè)試中,超過(guò)了OpenAI的GPT-4o,也超過(guò)了同類頂級(jí)開(kāi)源模型Qwen2.5-14B和Llama-3.3-70B。在與其他類似規(guī)模和更大規(guī)模的模型比較中,phi-4在12個(gè)基準(zhǔn)測(cè)試中的9個(gè)上優(yōu)于同類開(kāi)源模型Qwen-2.5-14B-Instruct。
微軟AzureAI團(tuán)隊(duì)宣布開(kāi)源視覺(jué)模型——Florence-2。Florence-2是一個(gè)多功能視覺(jué)模型,可提供圖像描述、目標(biāo)檢測(cè)、視覺(jué)定位、圖像分割等。尤其是在微調(diào)后,F(xiàn)lorence-2在公共基準(zhǔn)測(cè)試中的性能與更大參數(shù)的專業(yè)模型相媲美。
7月3日,微軟在官網(wǎng)開(kāi)源了基于圖的RAG——GraphRAG。為了增強(qiáng)大模型的搜索、問(wèn)答、摘要、推理等能力,RAG已經(jīng)成為GPT-4、Qwen-2、文心一言、訊飛星火、Gemini等國(guó)內(nèi)外知名大模型標(biāo)配功能。同時(shí)GraphRAG對(duì)tokens的需求很低,也就是說(shuō)可以幫助開(kāi)發(fā)者節(jié)省大量成本。
4月23日晚,微軟在官網(wǎng)開(kāi)源了小參數(shù)的大語(yǔ)言模型——Phi-3-mini。Phi-3-mini是微軟Phi家族的第4代,有預(yù)訓(xùn)練和指令微調(diào)多種模型,參數(shù)只有38億訓(xùn)練數(shù)據(jù)卻高達(dá)3.3Ttokens,比很多數(shù)百億參數(shù)的模型訓(xùn)練數(shù)據(jù)都要多,這也是其性能超強(qiáng)的主要原因之一。Phi-3-medium的性能可媲美Mixtral8x7B和GPT-3.5,資源消耗卻更少。
清華和微軟的研究人員提出了一種全新的方法,能在保證輸出質(zhì)量不變的前提下,將提示詞壓縮到原始長(zhǎng)度的20%!在自然語(yǔ)言處理中,有很多信息其實(shí)是重復(fù)的。如果能將提示詞進(jìn)行有效地壓縮,某種程度上也相當(dāng)于擴(kuò)大了模型支持上下文的長(zhǎng)度。GPT-4可以有效地重建原始提示,這表明在LLMLingua-2壓縮過(guò)程中并沒(méi)有丟失基本信息。
LoRA的高效能力已在文生圖領(lǐng)域獲得廣泛應(yīng)用,可以準(zhǔn)確渲染、融合圖像中的特定元素,例如,不同字符、特殊服裝或樣式背景等,同時(shí)可對(duì)圖像進(jìn)行壓縮、去噪、補(bǔ)全進(jìn)行優(yōu)化操作。但想在模型中應(yīng)用多個(gè)LoRA構(gòu)建更復(fù)雜的圖像時(shí),會(huì)出現(xiàn)圖像失真、難以控制細(xì)節(jié)的難題。尤其是使用數(shù)量較多的LoRA組合時(shí),生成高質(zhì)量的效果更加明顯。
近日,微軟正式開(kāi)源緩存存儲(chǔ)系統(tǒng)Garnet,能更大限度發(fā)揮硬件功能,幫助開(kāi)發(fā)人員更快地運(yùn)行應(yīng)用程序。微軟研究院數(shù)據(jù)庫(kù)小組高級(jí)首席研究員BadrishChandramouli介紹,Garnet項(xiàng)目是基于C#.NET8.0從零開(kāi)始構(gòu)建成,且以性能為核心考量。從基準(zhǔn)性能圖表來(lái)看,GET命令的吞吐量超過(guò)了Dragonfly十倍以上,第99百分位上的延遲卻比Dragonfly更低,同時(shí)Garnet和Dragonfly在吞吐量和延遲上的表現(xiàn)均遠(yuǎn)遠(yuǎn)優(yōu)于Redis。