无码在线播放二区|久久亚洲精品国产精品|无码视频在线观看一区二区|在线观看国产日韩亚洲中

  • <menu id="yw4o4"></menu>
  • 
    <menu id="yw4o4"><em id="yw4o4"></em></menu>
  • 首頁 > 業(yè)界 > 關(guān)鍵詞  > AI最新資訊  > 正文

    GPT-4V都考不過?基于大學水平考試的多模態(tài)AI測試基準MMMUs發(fā)布

    2023-12-01 14:11 · 稿源:站長之家

    要點:

    • 最新基準數(shù)據(jù)集MMMUs針對大學水平多學科問題提供了全面的多模態(tài)AI測試,挑戰(zhàn)了當前最強大的GPT-4V等模型,展現(xiàn)了其在深度和廣度方面的性能。

    • MMMU包含六個學科的30個科目,涉及藝術(shù)與設計、商科、科學、健康與醫(yī)學、人文與社會科學、技術(shù)與工程等領(lǐng)域,共有1.15萬個多模態(tài)問題,考察了感知、知識和推理等基本技能,為評估專家級AGI提供了全面而復雜的任務。

    • MMMU在問題設計上注重深度,包含專業(yè)領(lǐng)域知識和高級推理,通過涵蓋多種圖像格式和混合文本圖像輸入,要求AI模型在理解、記憶、推理等方面具備高級能力,挑戰(zhàn)了當前多模態(tài)基準的局限性。

    站長之家(ChinaZ.com)12月1日 消息:近日,一項基于大學水平考試的多模態(tài)AI測試基準MMMUs發(fā)布,旨在評估機器在廣泛多樣的任務上的專家級多模態(tài)理解和推理能力。這一基準對當前最先進的GPT-4V等模型提出挑戰(zhàn),通過涵蓋藝術(shù)與設計、商科、科學、健康與醫(yī)學、人文與社會科學、技術(shù)與工程等六個學科的30個科目,共有1.15萬個問題,考察了感知、知識和推理等基本技能。

    image.png

    論文地址:https://arxiv.org/abs/2311.16502

    項目網(wǎng)站:https://mmmu-benchmark.github.io/

    數(shù)據(jù)集:https://huggingface.co/datasets/MMMU/MMMU

    代碼:https://github.com/MMMU-Benchmark/MMMU

    MMMUs的問題涵蓋了大學考試、測驗和教科書,由50位來自不同學科的大學生收集,涉及了多種圖像格式,從照片和繪畫到圖表和表格。這使得該基準不僅考察了常識和日常知識,還注重專業(yè)領(lǐng)域知識和高級推理。此外,MMMUs具有文本和圖像混合的輸入,要求AI模型在處理這種混合信息時展現(xiàn)深度學科知識和執(zhí)行復雜推理的能力。

    在實驗評估中,MMMUs展現(xiàn)出極大的難度,即使是當前最先進的GPT-4V也僅在55.7%的問題上取得準確答案,表明AI技術(shù)在這一領(lǐng)域仍有巨大的改進空間。通過這一基準的構(gòu)建和評估,研究團隊為進一步推動人工智能系統(tǒng)的發(fā)展和深入研究提供了有力的工具和參考。

    總體而言,MMMUs作為一項全面、具有挑戰(zhàn)性的多模態(tài)AI測試基準,為評估專家級AGI的發(fā)展提供了新的視角和標準。這將有助于推動人工智能領(lǐng)域的發(fā)展,引領(lǐng)未來人工智能系統(tǒng)在多學科、多模態(tài)任務上取得更為卓越的成就。

    舉報

    • 相關(guān)推薦
    • UniToken:多模態(tài)AI的“全能選手”,一次編碼搞定圖文理解與圖像生成

      復旦大學與美團研究者提出UniToken框架,首次在統(tǒng)一模型中實現(xiàn)圖文理解與生成任務的"雙優(yōu)表現(xiàn)"。該方案融合連續(xù)和離散視覺編碼,有效解決了傳統(tǒng)多模態(tài)建模中的"任務干擾"和"表示割裂"問題。通過三階段訓練策略(視覺語義對齊、多任務聯(lián)合訓練、指令強化微調(diào)),UniToken在多個基準測試中性能超越專用模型。其創(chuàng)新性體現(xiàn)在:1)統(tǒng)一的雙邊視覺編碼

    • 多模態(tài)和Agent成為大廠AI的新賽 點

      這是《窄播Weekly》的第52期,本期我們關(guān)注的商業(yè)動態(tài)是:當大廠的AI競爭策略開始傾斜向應用場景,多模態(tài)能力和代理執(zhí)行成為兩個焦點。大模型落地C端場景的核心,就是讓大模型的能力越來越接近人。沿著這個主旋律,可以劃分出兩個進化方向:一個是持續(xù)降低用戶與大模型進行有效溝通的難度;另一個則是讓大模型具備執(zhí)行更復雜任務的能力。前者的實現(xiàn),需要給到大模型多

    • 多模態(tài)和Agent成為大廠AI的新賽點

      本期《窄播Weekly》聚焦AI大廠競爭策略向應用場景傾斜的趨勢,重點分析了多模態(tài)能力和代理執(zhí)行兩大發(fā)展方向。文章指出,大模型落地的核心在于讓人機交互更自然,具體表現(xiàn)為:1)通過多模態(tài)技術(shù)降低用戶使用門檻,如阿里夸克新推出的"拍照問夸克"功能;2)通過代理執(zhí)行提升復雜任務處理能力,如字節(jié)、百度等推出的通用Agent產(chǎn)品。國內(nèi)外廠商路徑差異明顯:國?

    • 業(yè)界唯一!百度網(wǎng)盤上線多模態(tài)AI筆記 效率提升10倍

      快科技5月2日消息,過往,用戶在通過視頻學習并記錄筆記時,總免不了要不停切換平臺軟件,暫停、截屏、記錄、插圖、批注、切換返回視頻過程繁瑣而低效。為了應對這種情況,百度網(wǎng)盤和百度文庫聯(lián)合研發(fā)上線了AI筆記”,支持全自動學習、半自動學習、輔助學習三種模式。如今只要在網(wǎng)盤里面任意打開一個學習視頻,在右側(cè)就能看到AI筆記”功能,用戶可以自主輸入內(nèi)容,也可以讓其直接生成圖文并茂、結(jié)構(gòu)清晰的筆記。而且每個重要知識點旁會有時間戳,點擊時間戳即可跳轉(zhuǎn)到視頻中對應位置,實現(xiàn)視頻和筆記內(nèi)容的順滑關(guān)聯(lián)。此外AI筆記”還可以幫

    • 可靈AI發(fā)布全新2.0模型:上線多模態(tài)視頻編輯功能

      快科技4月16日消息,據(jù)報道,可靈AI在北京舉行靈感成真”2.0模型發(fā)布會,正式發(fā)布可靈2.0視頻生成模型及可圖2.0圖像生成模型。據(jù)介紹,可靈2.0模型在動態(tài)質(zhì)量、語義響應、畫面美學等維度保持領(lǐng)先;可圖2.0模型在指令遵循、電影質(zhì)感及藝術(shù)風格表現(xiàn)等方面顯著提升。3月27日,全球AI基準測試機構(gòu)Artificial Analysis發(fā)布了最新的全球視頻生成大模型榜單,快手可靈1.6pro(高品質(zhì)模

    • AI日報:國內(nèi)首個多模態(tài)AI程序員上崗;字節(jié)啟動Top Seed計劃招募AI人才;DeepSeek R1T Chimera上線OpenRouter

      【AI日報】今日AI領(lǐng)域重要動態(tài):1.百度發(fā)布文心快碼3.5及多模態(tài)AI程序員"文心快碼Comate Zulu",提升開發(fā)效率;2.字節(jié)跳動啟動"Top Seed"計劃,招募30名AI博士人才;3.DeepSeek開源R1T Chimera模型上線OpenRouter平臺;4.阿里AI工程師余亮獲"全國勞動模范"稱號;5.開源圖像編輯工具Step1X-Edit登陸Hugging Face,性能媲美GPT-4o;6.谷歌被曝每月向三星支付巨額資金預裝Gemini應用

    • 剛剛,Llama 4深夜開源擊敗DeepSeek V3!2萬億多模態(tài)巨獸搶回王座

      Llama4重磅發(fā)布了!Meta官宣開源首個原生多模態(tài)Llama4,首次采用的MoE架構(gòu),支持12種語言,首批發(fā)布一共兩款:Llama4Scout:共有1090億參數(shù),17B活躍參數(shù),16個專家,1000萬上下Llama4Maverick:共有4000億參數(shù),17B活躍參數(shù),128個專家,100萬上下文另外,2萬億參數(shù)Llama4Behemoth將在未來幾個月面世,288B活躍參數(shù),16個專家。Llama4的橫空出世,成為迄今為止開源最強,多模態(tài)能力最好的模型之一。L

    • 紫東太初多模態(tài)RAG全新發(fā)布:端到端問答準確率提升33%

      在產(chǎn)業(yè)智能化進程中,如何高效融合企業(yè)專有知識資產(chǎn),構(gòu)建領(lǐng)域?qū)僬J知引擎,是企業(yè)邁向智能決策與高效運營的關(guān)鍵。然而,傳統(tǒng)檢索增強生成(RAG)技術(shù)受限于語言單模態(tài)處理能力,僅能實現(xiàn)文本知識庫與文本查詢之間的淺層理解,難以滿足復雜業(yè)務場景的需求,在實際應用中暴露出兩大缺陷:信息表征缺失:忽略知識庫中多模態(tài)富文檔的視覺語義信息,如版面結(jié)構(gòu)、圖表關(guān)?

    • 開源即支持!基于昇騰MindSpeed MM玩轉(zhuǎn)InternVL3多模態(tài)理解最新模型

      多模態(tài)理解領(lǐng)域當前已成了各家AI大模型公司“軍備競賽”的關(guān)鍵點之一,國內(nèi)外知名AI大模型公司都爭相通過發(fā)布最先進的多模態(tài)大語言模型展現(xiàn)其在多模態(tài)理解領(lǐng)域的前沿能力。近期,上海AI實驗室推出了其最新的多模態(tài)大語言模型InternVL3 系列,相比上一代InternVL2. 5 模型,該模型展現(xiàn)出卓越的多模態(tài)感知和推理能力,同時進一步擴展了其工具使用、GUI代理、工業(yè)圖像分析等

    • 1000萬上下文!新開源多模態(tài)大模型,單個GPU就能運行

      今年2月初,谷歌發(fā)布的Gemini2.0Pro支持200萬上下文,震驚了整個大模型領(lǐng)域。僅過了2個月,Meta最新開源的Llama4Scout就將上下文擴展至1000萬,整整提升了5倍開啟千萬級時代。根據(jù)實驗數(shù)據(jù)顯示,Llama4Behemoth在MMLUPro、GPQA、MATH-500等測試的數(shù)據(jù)比GPT-4.5、ClaudeSonnet3.7、Gemini2.0Pro更好。

    熱文

    • 3 天
    • 7天