无码在线播放二区|久久亚洲精品国产精品|无码视频在线观看一区二区|在线观看国产日韩亚洲中

  • <menu id="yw4o4"></menu>
  • 
    <menu id="yw4o4"><em id="yw4o4"></em></menu>
  • 首頁(yè) > 業(yè)界 > 關(guān)鍵詞  > LG最新資訊  > 正文

    LG發(fā)布韓國(guó)開(kāi)源推理AI模型,韓媒聲稱(chēng):數(shù)學(xué)比Deepseek強(qiáng)!

    2025-03-19 11:09 · 稿源:站長(zhǎng)之家

    QQ20250319-111314.png

    站長(zhǎng)之家(ChinaZ.com) 3月19日 消息:18 日,LG 公開(kāi)了韓國(guó)頭個(gè)推理型AI大模型 —— 一種像人類(lèi)一樣經(jīng)過(guò)邏輯性和階段性的思考過(guò)程后得出答案的AI模型 —— 它與從已學(xué)習(xí)的數(shù)據(jù)中尋找答案的傳統(tǒng)模型有所不同。

    最近,來(lái)自中國(guó)的 Deepseek 以低成本、高性能震驚全世界,甚至撼動(dòng)了“AI先鋒” OpenAI 的地位。在這樣的背景下,韓國(guó)也開(kāi)發(fā)出了“能與它們競(jìng)爭(zhēng)”的AI模型。LG 雖然向普通大眾公開(kāi)了他們的AI模型,但并未像 Deepseek、 ChatGPT 那樣讓普通人能夠使用相關(guān) AI 服務(wù) —— 僅在公司內(nèi)部將其用于產(chǎn)品開(kāi)發(fā)等方面。

    當(dāng)天,LG 人工智能研究院公開(kāi)了 “EXAONE Deep”—— 其主力模型是 “EXAONE Deep-32B”。人工智能在學(xué)習(xí)和推理時(shí),用于連接數(shù)據(jù)的單位 —— 參數(shù)數(shù)量達(dá)到了 320 億個(gè)。參數(shù)數(shù)量越多,人工智能的性能就越好,但驅(qū)動(dòng)它所需的人工智能半導(dǎo)體也就越多。因此,最近在‘盡量減少參數(shù)數(shù)量的同時(shí)提高性能’的競(jìng)爭(zhēng)十分激烈。

    LG 人工智能研究院強(qiáng)調(diào),Deepseek-R1 的參數(shù)數(shù)量為 6710 億,而“EXAONE Deep - 32B” 雖然僅約為其的 5%,但=性能卻與之相當(dāng)。

    為了驗(yàn)證它的說(shuō)法,LG還實(shí)際將其與 Deepseek等中國(guó)AI模型進(jìn)行了性能比較,結(jié)果發(fā)現(xiàn):“EXAONE Deep-32B” 在數(shù)學(xué)方面尤其取得了出色的結(jié)果 —— 在 2024 年美國(guó)數(shù)學(xué)奧林匹克競(jìng)賽的題目中,它獲得了 90 分,超過(guò)了 “Deepseek”—— 86.7 分,參數(shù)數(shù)量相同的阿里巴巴的 QwQ-32B(86.7 分)也被它超越。在韓國(guó) 2025 年高考數(shù)學(xué)部分,它也以 94.5 分的成績(jī),在與其他模型的比較中取得了比較高分。在博士水平的科學(xué)問(wèn)題中,它獲得了 66.1 分,高于阿里 QwQ-32B 的 63.3 分。

    QQ20250319-105414.png

    不過(guò),在編碼能力和語(yǔ)言能力方面,它落后于 Deepseek 等模型。在評(píng)估語(yǔ)言能力的 “多任務(wù)語(yǔ)言理解” 項(xiàng)目中,它得到了 83 分,不及阿里(87.4 分)和 Deepseek(90.8 分)。業(yè)內(nèi)相關(guān)人士表示:“推理型模型在解決數(shù)學(xué)或科學(xué)問(wèn)題方面具有專(zhuān)長(zhǎng)”、“與參數(shù)數(shù)量多的模型相比,其語(yǔ)言能力必然會(huì)有所欠缺。”

    此外,LG 人工智能研究院還公開(kāi)了參數(shù)數(shù)量進(jìn)一步減少的輕量模型 —— EXAONE Deep-7.8B、以及可在設(shè)備上運(yùn)行的模型 EXAONE Deep-2.4B。他們表示:“輕量模型雖然只有 32B 模型大小的 24%,但卻能保持 95% 的性能,而搭載在設(shè)備上的設(shè)備端模型雖然規(guī)模只有 7.5%,但性能卻達(dá)到了 86%?!?LG 以“開(kāi)源” 的方式公開(kāi)了可以說(shuō)是人工智能模型設(shè)計(jì)藍(lán)圖的 “源代碼”,以便其他開(kāi)發(fā)者能夠使用。值得一提的是,Deepseek 也是采用這種開(kāi)源方式。

    LG 雖然開(kāi)源了,但目前該AI模型僅在企業(yè)內(nèi)部使用 —— 因?yàn)橐?Deepseek、OpenAI 那樣讓普通人也用上,至少需要投入數(shù)百億韓元。LG 計(jì)劃逐步以 B2B 的形式擴(kuò)大服務(wù)。

    舉報(bào)

    • 相關(guān)推薦
    • DeepSeek上新!開(kāi)源發(fā)布DeepSeek-Prover-V2-671B新模型

      快科技4月30日消息,今日,DeepSeek 今日在 AI 開(kāi)源社區(qū) Hugging Face 發(fā)布了一個(gè)名為 DeepSeek-Prover-V2-671B 的新模型。據(jù)介紹,DeepSeek-Prover-V2-671B 其參數(shù)量達(dá)到6710億,使用了更高效的 safetensors 文件格式,并支持 BF16、FP8、F32 等多種計(jì)算精度,方便模型更快、更省資源地訓(xùn)練和部署。在模型架構(gòu)上,該模型使用了DeepSeek-V3架構(gòu),采用MoE(混合專(zhuān)家)模式,具有61層Transformer層,7168維隱藏層。同時(shí)支持超長(zhǎng)上下文,最大位置嵌入達(dá)163840,使其能處理復(fù)雜的數(shù)學(xué)證明,并且采用了FP8量化,可通過(guò)量化技術(shù)減小模型大小,提

    • DeepSeek領(lǐng)航大模型普惠化浪潮,xAI/微美全息加速開(kāi)源AI布局打造新格局

      DeepSeek 作為當(dāng)前最受關(guān)注的大模型之一,憑借其技術(shù)創(chuàng)新正在加速 AI 普惠化進(jìn)程。根據(jù)機(jī)構(gòu)新報(bào)告顯示,DeepSeek已經(jīng)成為全球增長(zhǎng)最快的AI工具,其每月新增網(wǎng)站訪問(wèn)量已經(jīng)超過(guò)OpenAI的ChatGPT。DeepSeek市場(chǎng)份額全球第三目前,DeepSeek市場(chǎng)份額6.58%,僅次于ChatGPT和Canva。DeepSeek是繼ChatGPT之后的又一現(xiàn)象級(jí)AI產(chǎn)品,它的市場(chǎng)份額從2.34%快速增長(zhǎng)至6.58%,展現(xiàn)出強(qiáng)勁的增長(zhǎng)態(tài)勢(shì)。全球著名?

    • 深夜突襲,DeepSeek-Prover-V2加冕數(shù)學(xué)王者!671B數(shù)學(xué)推理逆天狂飆

      DeepSeek發(fā)布數(shù)學(xué)推理模型DeepSeek-Prover-V2,包含7B和671B兩個(gè)參數(shù)版本。該模型采用"遞歸+強(qiáng)化學(xué)習(xí)"訓(xùn)練方法,在MiniF2F測(cè)試集上達(dá)到88.9%通過(guò)率,解決了PutnamBench中的49道題目。關(guān)鍵技術(shù)包括:1) 使用DeepSeek-V3分解復(fù)雜定理生成子目標(biāo);2) GRPO算法從多個(gè)候選方案中自動(dòng)學(xué)習(xí)最優(yōu)解;3) 通過(guò)思維鏈整合非形式化推理與形式化證明。模型在AIME競(jìng)賽題和教科書(shū)題目上也表現(xiàn)優(yōu)異,7B小模型意外在部分問(wèn)題上超越大模型。論文指出該方法為通向AGI提供了正確路徑,未來(lái)將擴(kuò)展至IMO級(jí)別數(shù)學(xué)難題。

    • IQ 過(guò)百的 AI 模型名單發(fā)布:ChatGPT、Deepseek等上榜

      人工智能IQ哪家強(qiáng)?o3 智商高達(dá) 132、Gemini 2.5 Pro Exp. 拿下 128 分、Claude 憑借 3.7 Sonnet Extended 位列第四、Deepsee R 1……

    • AI進(jìn)化論——音樂(lè)、繪畫(huà)和舞蹈的DeepSeek時(shí)刻

      “昔者倉(cāng)頡作書(shū)天雨粟,鬼夜哭”——人類(lèi)掌握文字后,天地為之動(dòng)容,因?yàn)閷儆谌祟?lèi)的文明誕生了?!皞}(cāng)頡作書(shū)”出自西漢《淮南子》,距離人類(lèi)掌握文字已經(jīng)過(guò)去了千年。AI進(jìn)化的答案,或許早就鐫刻在人類(lèi)文明的起點(diǎn)里。

    • 深度deepin 23.1正式發(fā)布AI默認(rèn)引擎切換至DeepSeek、修復(fù)超百項(xiàng)問(wèn)題

      快科技4月16日消息,今天,深度操作系統(tǒng)宣布,deepin 23.1版本已正式發(fā)布。此版本聚焦于解決基礎(chǔ)組件更新后的安裝效率問(wèn)題,大幅提升新用戶(hù)安裝體驗(yàn),同時(shí)集成多項(xiàng)功能優(yōu)化與問(wèn)題修復(fù),進(jìn)一步優(yōu)化系統(tǒng)使用。本次版本的重點(diǎn)改進(jìn)包括內(nèi)核優(yōu)化、AI 默認(rèn)引擎切換至DeepSeek、修復(fù)超百項(xiàng)用戶(hù)反饋問(wèn)題等,具體重點(diǎn)改進(jìn)如下:硬件兼容性與內(nèi)核優(yōu)化:集成6.6/6.12內(nèi)核更新、NVIDIA顯卡驅(qū)動(dòng)升級(jí)、Intel/AMD CPU微碼更新,全面提升硬件支持與底層性能;核心功能增強(qiáng):DDE新增智能鏡像源管理、緊湊模式入口,全局搜索支持離線自然語(yǔ)言與AI處理能力;?

    • DeepSeek帶飛寒武紀(jì)

      寒武紀(jì)憑借AI芯片業(yè)務(wù)實(shí)現(xiàn)扭虧為盈,2024年首次實(shí)現(xiàn)上市后盈利,2025年Q1營(yíng)收11.11億元同比暴增4230%,凈利潤(rùn)3.55億元。這家曾連虧8年、累計(jì)虧損54億元的"中國(guó)版英偉達(dá)",因美國(guó)對(duì)H20芯片出口管制獲得市場(chǎng)紅利,但客戶(hù)集中度過(guò)高(前五大客戶(hù)貢獻(xiàn)94.63%營(yíng)收)和現(xiàn)金流波動(dòng)仍是隱憂。當(dāng)前國(guó)產(chǎn)芯片迎來(lái)發(fā)展機(jī)遇,華為昇騰、壁仞等企業(yè)紛紛搶占市場(chǎng),行業(yè)競(jìng)爭(zhēng)日趨激烈。

    • DeepSeek紅利耗盡后,元寶拿什么和豆包斗?

      短短60天內(nèi),中國(guó)AI原生應(yīng)用下載排行榜的位次排名,就三易其主。最新情況是,截至4月15日中午,中國(guó)區(qū)蘋(píng)果應(yīng)用商店免費(fèi)APP下載排行榜上,豆包再次超越DeepSeek,位列第二,緊隨其后的DeepSeek被擠到了第三的位置,騰訊元寶則滑落到了第七名。2月13日,作為首家在C端主力產(chǎn)品中接入DeepSeek-R1滿血版的元寶,一度趁著DeepSeek東風(fēng)崛起:3月3日力壓DeepSeek和豆包,首度登頂。但好景?

    • DeepSeek的極致諂媚,正在摧毀我們的判斷力。

      昨天別人給我發(fā)了一個(gè)很好玩的帖子。就是如果你問(wèn)DeepSeek一個(gè)問(wèn)題:“北京大學(xué)和清華大學(xué)哪個(gè)更好,二選一,不需要說(shuō)明理由”DeepSeek在思考了15秒之后,會(huì)給出答案。

    • 奧特曼:ChatGPT不是AGI!OpenAI最強(qiáng)開(kāi)源模型直擊DeepSeek

      【新智元導(dǎo)讀】代碼截圖泄露,滿血版o3、o4-mini鎖定下周!更勁爆的是,一款據(jù)稱(chēng)是OpenAI的神秘模型一夜爆紅,每日處理高達(dá)260億token,是Claude用量4倍。奧特曼在TED放話:將推超強(qiáng)開(kāi)源模型,直面DeepSeek挑戰(zhàn)。持續(xù)的創(chuàng)新、豐富的資源和智能AI將會(huì)無(wú)縫融入日常生活,未來(lái)一代人將會(huì)覺(jué)得當(dāng)前人們又辛苦又落后。