11.11云上盛惠!海量產(chǎn)品 · 輕松上云!云服務(wù)器首年1.8折起,買1年送3個月!超值優(yōu)惠,性能穩(wěn)定,讓您的云端之旅更加暢享??靵眚v訊云選購吧!
多圖像場景也能用DPO方法來對齊了!由上海交大、上海AI實驗室、港中文等帶來最新成果MIA-DPO。這是一個面向大型視覺語言模型的多圖像增強的偏好對齊方法。MIA-DPO的成功證明了通過偏好優(yōu)化對齊模型與人類反饋,在提升模型多圖像感知與推理能力的同時,也可以保持原有的單圖任務(wù)性能,為未來的研究奠定了堅實基礎(chǔ)。
騰訊AI實驗室開發(fā)的"TRANSAGENTS"是一個創(chuàng)新的多智能體框架,專門設(shè)計用于處理超長文學(xué)內(nèi)容的翻譯工作。這個系統(tǒng)通過創(chuàng)建一個虛擬的翻譯出版公司來模擬真實的翻譯流程,其中包含多個具有不同職責(zé)和專業(yè)技能的虛擬角色。這種新型的多智能體翻譯系統(tǒng)有望在未來的文學(xué)翻譯和跨文化交流中發(fā)揮重要作用。
極空間AI實驗室 是北京天頂星智能信息技術(shù)有限公司推出的家庭私有云產(chǎn)品中的新功能。它包括自然語言搜索、相似圖片搜索和圖片文字識別等功能,旨在幫助用戶更快捷地管理和使用存儲在極空間中的圖片。點擊前往極空間AI實驗室體驗入口需求人群:適用于需要管理和快速檢索大量圖片的用戶,如家庭用戶、攝影師、設(shè)計師等。使用場景示例:使用自然語言搜索功能快速找
英偉達最新宣布成立通用具身智能體研究小組,專注于發(fā)展具備理解、推理和與物理世界互動能力的智能系統(tǒng)。該研究小組由英偉達高級科學(xué)家JimFan和其隊友YukeZhu共同領(lǐng)導(dǎo),他們認為未來的移動機器人將成為自主體,如同iPhone般無處不在。他們之前在具身智能領(lǐng)域的研究成果已經(jīng)引起廣泛關(guān)注,未來的發(fā)展也備受期待。
最新科學(xué)大模型浦科化學(xué),發(fā)布即開源!這是上海AI實驗室最新開源成果,它基于書生·浦語2.0強大的基座模型能力,通過注入海量化學(xué)專業(yè)數(shù)據(jù),使大模型獲得理解和處理化學(xué)相關(guān)專業(yè)任務(wù)的知識與能力。值得一提的是,在獲得化學(xué)能力同時,大模型的數(shù)理學(xué)科及推理能力還得到增強?;谄挚苹瘜W(xué)模型,人工智能可為化學(xué)研究提供智能化輔助,如化學(xué)合成路徑規(guī)劃、化學(xué)反應(yīng)條件優(yōu)化、實驗結(jié)果自動化分析等,從提升化學(xué)研究的效率和質(zhì)量。
上海AI實驗室、香港中文大學(xué)數(shù)據(jù)科學(xué)院、深圳大數(shù)據(jù)研究院聯(lián)合開源了一個名為Amphion的音頻、音樂和語音生成工具包。Amphion可幫助開發(fā)人員研究文本生成音頻、音樂等與音頻相關(guān)的領(lǐng)域,可以在一個框架內(nèi)完成,以解決生成模型黑箱、代碼庫分散、缺少評估指標(biāo)等難題。開發(fā)團隊表示,未來,會持續(xù)更新這個工具包,加入更多與語音相關(guān)的模型,打造成最好用的開源語音工具包之一。
上海AI實驗室升級發(fā)布“浦醫(yī)2.0”上海人工智能實驗室與上海交通大學(xué)醫(yī)學(xué)院附屬瑞金醫(yī)院等在“2023健康中國思南峰會”上發(fā)布了醫(yī)療多模態(tài)基礎(chǔ)模型群“浦醫(yī)2.0”,為跨領(lǐng)域、跨疾病、跨模態(tài)的AI醫(yī)療應(yīng)用提供全面支持。用戶可定制圖?
上海人工智能實驗室與上海交通大學(xué)醫(yī)學(xué)院附屬瑞金醫(yī)院等合作伙伴在“2023健康中國思南峰會”上發(fā)布了醫(yī)療多模態(tài)基礎(chǔ)模型群“浦醫(yī)2.0”,旨在為跨領(lǐng)域、跨疾病、跨模態(tài)的AI醫(yī)療應(yīng)用提供能力支持。浦醫(yī)2.0新增了多領(lǐng)域模型,語言參數(shù)增量,涵蓋醫(yī)學(xué)圖像、醫(yī)學(xué)文本、生物信息、蛋白質(zhì)工程等多個數(shù)據(jù)模態(tài)。整個浦醫(yī)2.0實現(xiàn)了醫(yī)療大模型群的一站式開源,為實現(xiàn)人工智能?
最近在多模態(tài)大型語言模型領(lǐng)域取得了顯著進展,但在多模態(tài)內(nèi)容生成方面仍存在明顯的空白。為了填補這一空白,騰訊AI實驗室和悉尼大學(xué)的合作引入了GPT4Video,這是一個統(tǒng)一的多模型框架,使得大型語言模型具備了視頻理解和生成的獨特能力。該研究還提出了一種簡單有效的微調(diào)方法,并發(fā)布了數(shù)據(jù)集,為未來的多模態(tài)LLMs研究提供了便利。
為慶祝Meta基礎(chǔ)人工智能研究團隊成立十周年,公司隆重推出三個創(chuàng)新的人工智能項目,展示了引人注目的演示。Ego-Exo4D:官方項目介紹網(wǎng)址:https://ai.meta.com/blog/ego-exo4d-video-learning-perception/該項目以數(shù)據(jù)集及基準測試的形式呈現(xiàn),旨在支持視頻學(xué)習(xí)和多模態(tài)感知的人工智能研究。這三個項目的推出標(biāo)志著MetaFAIR團隊十年來在人工智能領(lǐng)域取得的巨大成就,并為未來的技術(shù)發(fā)展和創(chuàng)?