无码在线播放二区|久久亚洲精品国产精品|无码视频在线观看一区二区|在线观看国产日韩亚洲中

  • <menu id="yw4o4"></menu>
  • 
    <menu id="yw4o4"><em id="yw4o4"></em></menu>
  • 首頁(yè) > 業(yè)界 > 關(guān)鍵詞  > GPT-3.5最新資訊  > 正文

    用GPT-3.5生成數(shù)據(jù)集!北大天工等團(tuán)隊(duì)圖像編輯新SOTA,可精準(zhǔn)模擬物理世界場(chǎng)景

    2024-05-30 09:20 · 稿源: 量子位公眾號(hào)

    高質(zhì)量圖像編輯的方法有很多,但都很難準(zhǔn)確表達(dá)出真實(shí)的物理世界。那么,Edit the World試試。來自北京大學(xué)、Tiamat AI、天工AI、Mila實(shí)驗(yàn)室提出了EditWorld,他們引入了一種新的編輯任務(wù),即世界指令(world-instructed)圖像編輯,它定義和分類基于各種世界場(chǎng)景的指令。在一組預(yù)

    ......

    本文由站長(zhǎng)之家合作伙伴自媒體作者“量子位公眾號(hào)”授權(quán)發(fā)布于站長(zhǎng)之家平臺(tái),本平臺(tái)僅提供信息索引服務(wù)。由于內(nèi)容發(fā)布時(shí)間超過平臺(tái)更新維護(hù)時(shí)間,為了保證文章信息的及時(shí)性,內(nèi)容觀點(diǎn)的準(zhǔn)確性,平臺(tái)將不提供完全的內(nèi)容展現(xiàn),本頁(yè)面內(nèi)容僅為平臺(tái)搜索索引使用。需閱讀完整內(nèi)容的用戶,請(qǐng)查看原文,獲取內(nèi)容詳情。

    舉報(bào)

    • 相關(guān)推薦
    • 大模型時(shí)代的燃料|標(biāo)貝科技推出大規(guī)模擬真多風(fēng)格語音合成數(shù)據(jù)集

      本文探討了人工智能語音交互領(lǐng)域的發(fā)展現(xiàn)狀與挑戰(zhàn)。文章指出,大模型技術(shù)驅(qū)動(dòng)下語音交互應(yīng)用場(chǎng)景持續(xù)拓展,但面臨數(shù)據(jù)質(zhì)量、隱私合規(guī)等挑戰(zhàn)。當(dāng)前語音大模型訓(xùn)練需要TB至PB級(jí)數(shù)據(jù),而傳統(tǒng)數(shù)據(jù)供給模式難以滿足需求。合成數(shù)據(jù)作為真實(shí)數(shù)據(jù)的重要補(bǔ)充,能通過參數(shù)化生成機(jī)制規(guī)避隱私風(fēng)險(xiǎn),突破傳統(tǒng)數(shù)據(jù)在多樣性和場(chǎng)景覆蓋上的局限性。國(guó)內(nèi)外科技企業(yè)已開始廣泛應(yīng)用合成數(shù)據(jù)訓(xùn)練AI模型,如Meta的LLaMA3和微軟的Phi-4模型。標(biāo)貝科技推出超大規(guī)模擬真多風(fēng)格語音合成數(shù)據(jù)集,包含上萬小時(shí)數(shù)據(jù),覆蓋中英混合場(chǎng)景,支持情感合成、風(fēng)格遷移等前沿任務(wù),為虛擬偶像、數(shù)字人等元宇宙場(chǎng)景提供實(shí)時(shí)語音生成方案。該數(shù)據(jù)集基于32kHz高保真采樣率技術(shù),在自然度、流暢度等方面達(dá)到行業(yè)領(lǐng)先水平。

    • 何小鵬:我們要成為物理世界大模型第一名

      快科技4月14日消息,今晚小鵬汽車創(chuàng)始人何小鵬發(fā)文稱,我們的目標(biāo)是成為物理世界大模型的第一名,推動(dòng)汽車,機(jī)器人,飛行汽車領(lǐng)域的巨大變化?!苯裉?,小鵬在香港舉辦AI技術(shù)分享會(huì),首次披露正在研發(fā)720億參數(shù)的超大規(guī)模自動(dòng)駕駛大模型,也即小鵬世界基座模型”。未來,小鵬將通過云端蒸餾小模型的方式將基模部署到車端,給AI汽車”配備全新的大腦。小鵬世界基座?

    • 英偉達(dá)開源15T數(shù)據(jù)集32萬個(gè)機(jī)器人訓(xùn)練軌跡

      全球AI領(lǐng)導(dǎo)者英偉達(dá)開源了,用于實(shí)體機(jī)器人和自動(dòng)化駕駛的超大訓(xùn)練數(shù)據(jù)合集——NVIDIAPhysicalAIDataset。這個(gè)數(shù)據(jù)集一共15T,涵蓋了超過320,000個(gè)機(jī)器人訓(xùn)練軌跡,以及多達(dá)1,000個(gè)通用場(chǎng)景描述包括一個(gè)SimReady集合。英偉達(dá)表示,未來將繼續(xù)擴(kuò)展PhysicalAIDataset,將其建設(shè)成世界最大、統(tǒng)一的開源數(shù)據(jù)集,可用于AI模型、醫(yī)療、自動(dòng)化駕駛等不同領(lǐng)域,加速AI、實(shí)體機(jī)器人的訓(xùn)練效?

    • AI日?qǐng)?bào):Kimi全音頻基礎(chǔ)模型Kimi-Audio;階躍星辰開源圖像編輯模型Step1X-Edit;?夸克AI超級(jí)框上線 “拍照問夸克”

      本期AI日?qǐng)?bào)聚焦多項(xiàng)AI技術(shù)突破與應(yīng)用:1)Moonshot AI推出開源音頻模型Kimi-Audio,基于13億小時(shí)訓(xùn)練數(shù)據(jù),支持語音識(shí)別等任務(wù);2)階躍星辰開源圖像編輯模型Step1X-Edit,展現(xiàn)強(qiáng)大生成能力;3)夸克AI上線"拍照問夸克"功能,實(shí)現(xiàn)視覺問答;4)蘋果iOS18.5將在中國(guó)推送,帶來智能功能;5)谷歌發(fā)布601個(gè)生成式AI應(yīng)用案例,覆蓋多行業(yè);6)微軟推出深度整合Windows的UFO2自動(dòng)化系統(tǒng);7)OpenAI升級(jí)ChatGPT至GPT-4o版本,提升STEM領(lǐng)域能力;8)Ema公司推出高性價(jià)比語言模型EmaFusion;9)Liquid AI發(fā)布面向邊緣設(shè)備的Hyena Edge模型;10)LemonAI推出實(shí)時(shí)音視頻數(shù)字人產(chǎn)品Slice Live。此外,國(guó)內(nèi)方面,智譜與生數(shù)科技達(dá)成戰(zhàn)略合作推動(dòng)大模型發(fā)展,寶馬中國(guó)宣布新車將接入DeepSeek技術(shù)。

    • 生成很強(qiáng),推理很弱:GPT-4o的視覺短板

      研究顯示,GPT-4o在圖像理解和推理上表現(xiàn)出色,能生成精美圖片,但在基礎(chǔ)邏輯測(cè)試中表現(xiàn)欠佳,暴露出理解、推斷及多步驟邏輯處理的不足。例如,被要求畫一只貓時(shí),它先畫了狗然后改為貓,但仍存在錯(cuò)誤判斷。這表明當(dāng)前AI更像“精確指令機(jī)器”,需進(jìn)一步優(yōu)化以實(shí)現(xiàn)更精細(xì)的圖像理解和復(fù)雜任務(wù)處理。

    • 挑戰(zhàn)GPT-4o!AI文生驚現(xiàn)黑馬,國(guó)產(chǎn)團(tuán)隊(duì)HiDream如何逆襲?

      HiDream是一款由國(guó)內(nèi)團(tuán)隊(duì)開發(fā)的AI模型,擅長(zhǎng)生成復(fù)雜的圖片與多種風(fēng)格的藝術(shù)作品。它在多個(gè)測(cè)試中表現(xiàn)出對(duì)細(xì)節(jié)、材質(zhì)、光影控制以及創(chuàng)意概念的良好理解,尤其在人物動(dòng)態(tài)、精細(xì)繪畫等方面效果顯著。HiDream支持輸出4K高清圖片,并兼容多種應(yīng)用領(lǐng)域,包括商業(yè)用途。盡管在某些特定要求下還需提升表現(xiàn),但其潛力和實(shí)際效果已受到關(guān)注。

    • GPT4o生成的爛自拍,反而比我們更真實(shí)。

      文章探討了GPT-4o通過簡(jiǎn)單Prompt生成的"不完美"照片引發(fā)熱潮的現(xiàn)象。這些刻意追求平凡、模糊、構(gòu)圖混亂的照片,反而因其"不完美"帶來了前所未有的真實(shí)感。作者指出,在社交媒體充斥精修照片的時(shí)代,這種未經(jīng)修飾的"生活切片"恰恰捕捉了人類最熟悉的真實(shí)瞬間。通過分析911事件經(jīng)典照片《墜落的人》,文章進(jìn)一步論證了真實(shí)往往存在于未經(jīng)表演的偶?

    • AI日?qǐng)?bào): OpenAI推出gpt-image-1圖像生成API;納米AI發(fā)布MCP萬能工具箱;中國(guó)占全球AI專利60%

      【AI日?qǐng)?bào)】欄目聚焦人工智能領(lǐng)域最新動(dòng)態(tài):1) OpenAI推出ChatGPT圖像生成API,開發(fā)者可輕松集成AI繪圖功能,已生成超7億張圖片;2) 谷歌Gemini月活用戶突破3.5億,但仍落后于ChatGPT的6億用戶;3) OpenAI預(yù)測(cè)2029年收入將達(dá)1250億美元,AI代理業(yè)務(wù)成主要增長(zhǎng)點(diǎn);4) Ostris發(fā)布8B參數(shù)擴(kuò)散模型Flex.2-preview,優(yōu)化ComfyUI工作流;5) 英偉達(dá)推出多模態(tài)LLM模型Describe Anything,支持指定區(qū)域生成詳細(xì)描?

    • 媲美OpenAI-o3,剛剛開源模型DeepCoder,訓(xùn)練方法、數(shù)據(jù)集大公開

      今天凌晨4點(diǎn),著名大模型訓(xùn)練平臺(tái)TogetherAI和智能體平臺(tái)Agentica,聯(lián)合開源了新模型DeepCoder-14B-Preview。該模型只有140億參數(shù),但在知名代碼測(cè)試平臺(tái)LiveCodeBench的測(cè)試分為60.6%,高于OpenAI的o1模型,略低于o3-mini。TogetherAI剛獲得3.05億美元的B輪融資,其估值也從去年的12.5億美元翻倍至33億美元。

    • UniToken:多模態(tài)AI的“全能選手”,一次編碼搞定文理解與圖像生成

      復(fù)旦大學(xué)與美團(tuán)研究者提出UniToken框架,首次在統(tǒng)一模型中實(shí)現(xiàn)圖文理解與生成任務(wù)的"雙優(yōu)表現(xiàn)"。該方案融合連續(xù)和離散視覺編碼,有效解決了傳統(tǒng)多模態(tài)建模中的"任務(wù)干擾"和"表示割裂"問題。通過三階段訓(xùn)練策略(視覺語義對(duì)齊、多任務(wù)聯(lián)合訓(xùn)練、指令強(qiáng)化微調(diào)),UniToken在多個(gè)基準(zhǔn)測(cè)試中性能超越專用模型。其創(chuàng)新性體現(xiàn)在:1)統(tǒng)一的雙邊視覺編碼

    熱文

    • 3 天
    • 7天