无码在线播放二区|久久亚洲精品国产精品|无码视频在线观看一区二区|在线观看国产日韩亚洲中

  • <menu id="yw4o4"></menu>
  • 
    <menu id="yw4o4"><em id="yw4o4"></em></menu>
  • 首頁 > 業(yè)界 > 關(guān)鍵詞  > 正文

    昆侖萬維:天工大模型推理能力超過GPT-3.5和LLaMA2

    2023-09-18 08:18 · 稿源:站長(zhǎng)之家

    站長(zhǎng)之家(ChinaZ.com)9月18日 消息:昆侖萬維表示,其自研的天工大模型在 Benchmark GSM8K 測(cè)試中取得了80% 的正確率,超過了 GPT-3.5和 LLaMA2-70B,達(dá)到了全球領(lǐng)先水平,接近于 GPT-4。

    天工大模型還在 MMLU、C-EVAL、HumanEval 等多個(gè)數(shù)據(jù)集上表現(xiàn)出色,準(zhǔn)確率均高于其他主流大模型。同樣,在中文開源數(shù)據(jù)集 CMATH 測(cè)試中,天工大模型也表現(xiàn)優(yōu)秀,準(zhǔn)確率超過了其他主流大模型。

    微信截圖_20230918081839.png

    昆侖萬維表示,天工大模型的優(yōu)秀表現(xiàn)得益于其對(duì)多數(shù)據(jù)源的高效融合策略、不同語言間的能力遷移以及對(duì)基座邏輯推理能力的深入探索。與 GPT-3.5相比,天工大模型的解題思路更為簡(jiǎn)單、清晰。

    天工大模型目前仍處于內(nèi)測(cè)階段,將持續(xù)提升技術(shù)實(shí)力,為用戶和企業(yè)提供強(qiáng)大的智能化助力。

    舉報(bào)

    • 相關(guān)推薦
    • Llama 4大模型跌落神壇:作弊刷榜、代碼能力極差、和DeepSeek比就是偽開源

      被寄予厚望的美國Meta公司的最新開源大模型Llama4發(fā)布不到2天時(shí)間,口碑急轉(zhuǎn)直下,被質(zhì)疑為刷榜作弊實(shí)際效果差、開源條件多部署門檻高是偽開源等。大模型評(píng)測(cè)平臺(tái)LMArena親自下場(chǎng)發(fā)文,打臉Meta提供給平臺(tái)的Llama4是“特供版”。Meta若繼續(xù)在商業(yè)控制與技術(shù)開放之間搖擺,恐將在AI競(jìng)賽中進(jìn)一步失去開發(fā)者支持。

    • 苦等一年 Meta終于放大招 正式發(fā)布開源大模型Llama 4

      美國科技巨擘Meta重磅推出其迄今最為強(qiáng)大的開源AI模型Llama4,恰逢Llama3上市一周年之際。Llama4系列采用了先進(jìn)的混合專家架構(gòu),這一架構(gòu)在模型訓(xùn)練及用戶查詢回答過程中展現(xiàn)出更高效率,通過將模型劃分為多個(gè)專注于特定任務(wù)的專家”子模型,實(shí)現(xiàn)精準(zhǔn)高效的處理。Meta首席執(zhí)行官扎克伯格表示:他們的目標(biāo)是建立世界領(lǐng)先的人工智能,將其開源,并使其普遍可用,以便世界上每個(gè)人都能受益。

    • Meta說他們的 Llama 4 偏見少了!但,“虛假對(duì)等”才是真偏見

      Meta公司稱,相比之前的版本,他們最新的人工智能模型Llama4的政治偏見更少了。其中一部分便是通過允許該模型回答更多帶有政治爭(zhēng)議性的問題來實(shí)現(xiàn)這一點(diǎn)的。下次當(dāng)你使用Meta的AI產(chǎn)品時(shí),它可能會(huì)為“通過服用馬用鎮(zhèn)靜劑來治療新冠病毒”這種觀點(diǎn)說好話!

    • 實(shí)錘了,Llama 4重測(cè)排名掉至32名!遠(yuǎn)不及DeepSeek和Qwen

      LMArena更新了Meta最新發(fā)布的開源大模型Llama-4-Maverick的排名,從此前的第2名,直線掉到了第32名!這也實(shí)錘了此前開發(fā)者對(duì)Meta為刷榜排名向LMArena提供了“特供版”的Llama4大模型的質(zhì)疑。開源版同款Llama-4-Maverick-17B-128E-Instruct在LMArena的排名為32名,遠(yuǎn)低于Gemini2.5Pro、GPT4o、DeepSeek-V3-0324、DeepSeek-R1、Qwen2.5-Max,甚至連英偉達(dá)基于上一代Llama3.3改造的Llama-3.3-Nemotron-Super-49B-v1都不如。

    • 反擊DeepSeek失??!Llama 4效果不好,Meta承認(rèn)有問題

      今天凌晨1點(diǎn)半,Meta生成式AI領(lǐng)導(dǎo)者AhmadAl-Dahle在社交平臺(tái)發(fā)布了一篇長(zhǎng)文,對(duì)前天剛開源的Llama4質(zhì)疑進(jìn)行了官方回應(yīng)。Ahmad表示,Llama4一開發(fā)完就發(fā)布了,所以,不同服務(wù)中模型質(zhì)量難免會(huì)有一些差異。由于關(guān)稅大戰(zhàn)的原因,Meta的股票遭遇重創(chuàng),他們也需要一個(gè)利好消息來拉升股票,現(xiàn)在適得其反。

    • 剛剛,Llama 4深夜開源擊敗DeepSeek V32萬億多模態(tài)巨獸搶回王座

      Llama4重磅發(fā)布了!Meta官宣開源首個(gè)原生多模態(tài)Llama4,首次采用的MoE架構(gòu),支持12種語言,首批發(fā)布一共兩款:Llama4Scout:共有1090億參數(shù),17B活躍參數(shù),16個(gè)專家,1000萬上下Llama4Maverick:共有4000億參數(shù),17B活躍參數(shù),128個(gè)專家,100萬上下文另外,2萬億參數(shù)Llama4Behemoth將在未來幾個(gè)月面世,288B活躍參數(shù),16個(gè)專家。Llama4的橫空出世,成為迄今為止開源最強(qiáng),多模態(tài)能力最好的模型之一。L

    • Llama 4五大疑點(diǎn)曝光,逐層扒皮,全球AI進(jìn)步停滯,NYU教授稱Scaling徹底結(jié)束

      令人失望的Llama4,只是前奏已。接下來我們恐將看到——全球局勢(shì)的改變,將徹底阻止AI進(jìn)步!最近,一位AICEO做出長(zhǎng)視頻,逐級(jí)對(duì)Llama4身上的六大疑點(diǎn)進(jìn)行了扒皮。GaryMarcus正在尋找對(duì)開發(fā)更可靠替代方法有興趣的投資者。

    • AI日?qǐng)?bào):昆侖萬維開源Skywork-OR1系列模型;訊飛星辰Agent開發(fā)平臺(tái)全面支持MCP;字節(jié)跳動(dòng)布局AI智能眼鏡

      歡迎來到【AI日?qǐng)?bào)】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/1、Kimi開源視覺語言模型 Kimi-VL 與 Kimi-VL-Thinking,多項(xiàng)基準(zhǔn)超越 GPT-4oMoonshot AI 最近開源了 Kimi-VL 和 Kimi-VL-Thinking 兩款視覺語言模型,展現(xiàn)出卓越的多模態(tài)理解與推理能力。這些模型采

    • AI日?qǐng)?bào):昆侖萬維開源SkyReels-V2;訊飛星火X1全新升級(jí);扣子空間Coze Space內(nèi)測(cè)

      本文介紹了多個(gè)前沿的人工智能產(chǎn)品和技術(shù)動(dòng)態(tài),包括SkyReels-V2視頻生成模型、訊飛星火大模型升級(jí)、宇樹科技人形機(jī)器人比賽計(jì)劃、Coze Space AI協(xié)作平臺(tái)、Gemma3 QAT優(yōu)化模型、英特爾AI Playground工具、Reachy2人形機(jī)器人發(fā)布、ChatTS-14B語音研究項(xiàng)目、Figma推出AI設(shè)計(jì)工具以及MarkItDown MCP文檔轉(zhuǎn)換工具,展示了AI技術(shù)在多領(lǐng)域的廣泛應(yīng)用與創(chuàng)新發(fā)展?jié)摿Α?/p>

    • 不要思考過程,推理模型能力能夠更強(qiáng)

      UC伯克利和艾倫實(shí)驗(yàn)室的最新研究表明,推理模型無需依賴冗長(zhǎng)的思考過程也能有效工作。研究人員提出的"無思考(NoThinking)"方法通過簡(jiǎn)單提示直接生成解決方案,跳過了傳統(tǒng)推理模型中的顯性思考步驟。實(shí)驗(yàn)證明,在低資源(低token數(shù)量、少模型參數(shù))或低延遲情況下,NoThinking方法的表現(xiàn)優(yōu)于傳統(tǒng)思考方式,能減少token使用量并提高推理速度。該方法在數(shù)學(xué)問題解決、編程和形式定理證明等任務(wù)中表現(xiàn)優(yōu)異,尤其在資源受限時(shí)優(yōu)勢(shì)更明顯。研究還發(fā)現(xiàn),結(jié)合并行計(jì)算擴(kuò)展后,NoThinking能進(jìn)一步提升性能,在保持準(zhǔn)確性的同時(shí)顯著降低延遲和計(jì)算成本。這一發(fā)現(xiàn)挑戰(zhàn)了"推理模型必須依賴詳細(xì)思考過程"的傳統(tǒng)認(rèn)知。