站長(zhǎng)之家(ChinaZ.com) 3月19日 消息:18 日,LG 公開(kāi)了韓國(guó)頭個(gè)推理型AI大模型 —— 一種像人類(lèi)一樣經(jīng)過(guò)邏輯性和階段性的思考過(guò)程后得出答案的AI模型 —— 它與從已學(xué)習(xí)的數(shù)據(jù)中尋找答案的傳統(tǒng)模型有所不同。
最近,來(lái)自中國(guó)的 Deepseek 以低成本、高性能震驚全世界,甚至撼動(dòng)了“AI先鋒” OpenAI 的地位。在這樣的背景下,韓國(guó)也開(kāi)發(fā)出了“能與它們競(jìng)爭(zhēng)”的AI模型。LG 雖然向普通大眾公開(kāi)了他們的AI模型,但并未像 Deepseek、 ChatGPT 那樣讓普通人能夠使用相關(guān) AI 服務(wù) —— 僅在公司內(nèi)部將其用于產(chǎn)品開(kāi)發(fā)等方面。
當(dāng)天,LG 人工智能研究院公開(kāi)了 “EXAONE Deep”—— 其主力模型是 “EXAONE Deep-32B”。人工智能在學(xué)習(xí)和推理時(shí),用于連接數(shù)據(jù)的單位 —— 參數(shù)數(shù)量達(dá)到了 320 億個(gè)。參數(shù)數(shù)量越多,人工智能的性能就越好,但驅(qū)動(dòng)它所需的人工智能半導(dǎo)體也就越多。因此,最近在‘盡量減少參數(shù)數(shù)量的同時(shí)提高性能’的競(jìng)爭(zhēng)十分激烈。
LG 人工智能研究院強(qiáng)調(diào),Deepseek-R1 的參數(shù)數(shù)量為 6710 億,而“EXAONE Deep - 32B” 雖然僅約為其的 5%,但=性能卻與之相當(dāng)。
為了驗(yàn)證它的說(shuō)法,LG還實(shí)際將其與 Deepseek等中國(guó)AI模型進(jìn)行了性能比較,結(jié)果發(fā)現(xiàn):“EXAONE Deep-32B” 在數(shù)學(xué)方面尤其取得了出色的結(jié)果 —— 在 2024 年美國(guó)數(shù)學(xué)奧林匹克競(jìng)賽的題目中,它獲得了 90 分,超過(guò)了 “Deepseek”—— 86.7 分,參數(shù)數(shù)量相同的阿里巴巴的 QwQ-32B(86.7 分)也被它超越。在韓國(guó) 2025 年高考數(shù)學(xué)部分,它也以 94.5 分的成績(jī),在與其他模型的比較中取得了比較高分。在博士水平的科學(xué)問(wèn)題中,它獲得了 66.1 分,高于阿里 QwQ-32B 的 63.3 分。
不過(guò),在編碼能力和語(yǔ)言能力方面,它落后于 Deepseek 等模型。在評(píng)估語(yǔ)言能力的 “多任務(wù)語(yǔ)言理解” 項(xiàng)目中,它得到了 83 分,不及阿里(87.4 分)和 Deepseek(90.8 分)。業(yè)內(nèi)相關(guān)人士表示:“推理型模型在解決數(shù)學(xué)或科學(xué)問(wèn)題方面具有專(zhuān)長(zhǎng)”、“與參數(shù)數(shù)量多的模型相比,其語(yǔ)言能力必然會(huì)有所欠缺。”
此外,LG 人工智能研究院還公開(kāi)了參數(shù)數(shù)量進(jìn)一步減少的輕量模型 —— EXAONE Deep-7.8B、以及可在設(shè)備上運(yùn)行的模型 EXAONE Deep-2.4B。他們表示:“輕量模型雖然只有 32B 模型大小的 24%,但卻能保持 95% 的性能,而搭載在設(shè)備上的設(shè)備端模型雖然規(guī)模只有 7.5%,但性能卻達(dá)到了 86%?!?LG 以“開(kāi)源” 的方式公開(kāi)了可以說(shuō)是人工智能模型設(shè)計(jì)藍(lán)圖的 “源代碼”,以便其他開(kāi)發(fā)者能夠使用。值得一提的是,Deepseek 也是采用這種開(kāi)源方式。
LG 雖然開(kāi)源了,但目前該AI模型僅在企業(yè)內(nèi)部使用 —— 因?yàn)橐?Deepseek、OpenAI 那樣讓普通人也用上,至少需要投入數(shù)百億韓元。LG 計(jì)劃逐步以 B2B 的形式擴(kuò)大服務(wù)。
(舉報(bào))