无码在线播放二区|久久亚洲精品国产精品|无码视频在线观看一区二区|在线观看国产日韩亚洲中

  • <menu id="yw4o4"></menu>
  • 
    <menu id="yw4o4"><em id="yw4o4"></em></menu>
  • 首頁(yè) > 業(yè)界 > 關(guān)鍵詞  > xTuring最新資訊  > 正文

    開(kāi)源工具xTuring厲害了,三行代碼就能創(chuàng)建自己的大語(yǔ)言模型

    2023-07-18 17:00 · 稿源:站長(zhǎng)之家

    站長(zhǎng)之家(ChinaZ.com)7月18日 消息:xTuring 是一個(gè)開(kāi)源工具,可以讓用戶只用三行代碼就能創(chuàng)建自己的大語(yǔ)言模型 (LLMs)。

    據(jù)了解,xTuring由 Stochastic 團(tuán)隊(duì)開(kāi)發(fā),旨在優(yōu)化和加速人工智能大語(yǔ)言模型。Stochastic 擁有一支由聰明的機(jī)器學(xué)習(xí)工程師、博士后和哈佛大學(xué)研究生組成的團(tuán)隊(duì),專注于優(yōu)化和加速法學(xué)碩士的人工智能。

    image.png

    自動(dòng)文本傳輸、聊天機(jī)器人、語(yǔ)言翻譯和內(nèi)容制作等應(yīng)用程序是人們努力利用這些概念開(kāi)發(fā)和創(chuàng)建新應(yīng)用程序的領(lǐng)域。訓(xùn)練和微調(diào)這些模型可能既耗時(shí)又昂貴。無(wú)論是使用 LLaMA、GPT-J、GPT-2還是其他方法,xTuring 都可以輕松快速地進(jìn)行模型優(yōu)化。

    xTuring 可以適應(yīng)不同的硬件配置,通過(guò)內(nèi)存高效的微調(diào)技術(shù) LoRA,加快學(xué)習(xí)過(guò)程,降低硬件成本。據(jù)稱,xTuring 使用 LoRA 等內(nèi)存高效微調(diào)技術(shù)來(lái)加速學(xué)習(xí)過(guò)程,并將硬件支出減少多達(dá)90%。通過(guò)減少微調(diào)所需的內(nèi)存量,LoRA 有助于更快速、更有效的模型訓(xùn)練。

    與其他微調(diào)技術(shù)相比,xTuring 在 LLaMA7B 模型的微調(diào)能力上取得了出色的結(jié)果。LLaMA7B 模型被用作 xTuring 微調(diào)能力的基準(zhǔn),團(tuán)隊(duì)將 xTuring 與其他微調(diào)技術(shù)進(jìn)行了比較。數(shù)據(jù)集由52K token組成,測(cè)試中使用了335GB CPU 內(nèi)存和4xA100GPU。

    結(jié)果表明,使用 DeepSpeed + CPU 卸載對(duì) LLaMA7B 模型進(jìn)行每個(gè) epoch21小時(shí)的訓(xùn)練消耗了33.5GB GPU 和190GB CPU。在使用 LoRA + DeepSpeed 或 LoRA + DeepSpeed + CPU 卸載進(jìn)行微調(diào)時(shí),GPU 上的內(nèi)存使用量分別急劇下降至23.7GB 和21.9GB。CPU 使用的 RAM 量從14.9GB 下降到10.2GB。此外,使用 LoRA + DeepSpeed 或 LoRA + DeepSpeed + CPU 卸載時(shí),訓(xùn)練時(shí)間從每個(gè) epoch40分鐘減少到20分鐘。

    操作方面,用戶可以通過(guò)簡(jiǎn)單的鼠標(biāo)點(diǎn)擊來(lái)微調(diào)模型,并且 xTuring 的用戶界面非常簡(jiǎn)單易用。該團(tuán)隊(duì)表示,xTuring 是調(diào)整大型語(yǔ)言模型的不錯(cuò)選擇,因?yàn)樗С謫蝹€(gè)和多個(gè) GPU 訓(xùn)練,使用內(nèi)存高效的方法,并具有直觀的界面。

    項(xiàng)目網(wǎng)址:https://github.com/stochasticai/xTuring

    https://xturing.stochastic.ai/

    舉報(bào)

    • 相關(guān)推薦
    • 時(shí)空壺接入大語(yǔ)言模型,跨語(yǔ)言溝通已成翻譯的藝術(shù)

      在當(dāng)今全球化浪潮中,跨語(yǔ)言溝通的需求如潮水般洶涌。從商務(wù)領(lǐng)域的跨國(guó)談判,到文化交流中的思想碰撞,高效、精準(zhǔn)的語(yǔ)言翻譯成為關(guān)鍵橋梁。隨著技術(shù)的不斷發(fā)展與迭代,時(shí)空壺有望持續(xù)引領(lǐng)行業(yè)變革,推動(dòng)全球交流合作邁向新的高度,真正實(shí)現(xiàn)跨越語(yǔ)言障礙,讓世界溝通無(wú)阻。

    • Llama 4大模型跌落神壇:作弊刷榜、代碼能力極差、和DeepSeek比就是偽開(kāi)源

      被寄予厚望的美國(guó)Meta公司的最新開(kāi)源大模型Llama4發(fā)布不到2天時(shí)間,口碑急轉(zhuǎn)直下,被質(zhì)疑為刷榜作弊實(shí)際效果差、開(kāi)源條件多部署門(mén)檻高是偽開(kāi)源等。大模型評(píng)測(cè)平臺(tái)LMArena親自下場(chǎng)發(fā)文,打臉Meta提供給平臺(tái)的Llama4是“特供版”。Meta若繼續(xù)在商業(yè)控制與技術(shù)開(kāi)放之間搖擺,恐將在AI競(jìng)賽中進(jìn)一步失去開(kāi)發(fā)者支持。

    • 理想自研車(chē)機(jī)系統(tǒng)“星環(huán)OS”公布開(kāi)源代碼

      理想汽車(chē)4月25日發(fā)布"理想星環(huán)OS技術(shù)白皮書(shū)",宣布啟動(dòng)車(chē)機(jī)操作系統(tǒng)開(kāi)源計(jì)劃。該項(xiàng)目將分三個(gè)階段推進(jìn):4月23日已開(kāi)源安全實(shí)時(shí)操作系統(tǒng)和通信總線模塊;6月30日將開(kāi)放完整智能車(chē)控系統(tǒng)及智能駕駛基礎(chǔ)能力;7月后計(jì)劃開(kāi)源包含虛擬化引擎在內(nèi)的完整智能駕駛系統(tǒng)。理想采用Apache License V2.0開(kāi)源協(xié)議,已在Gitee平臺(tái)創(chuàng)建開(kāi)源組織。李想表示此次開(kāi)源不設(shè)商業(yè)壁壘,預(yù)計(jì)可為汽車(chē)行業(yè)每年減少100-200億元重復(fù)研發(fā)投入,推動(dòng)行業(yè)技術(shù)共享與協(xié)作創(chuàng)新。

    • 北京隊(duì)再上大分:新AI一句話就能搞開(kāi)發(fā),代碼實(shí)時(shí)可見(jiàn) | 免費(fèi)可用

      什么?!現(xiàn)在隨便一個(gè)完全不懂編程的人,都可以開(kāi)發(fā)完整網(wǎng)站了???你沒(méi)看錯(cuò),現(xiàn)在搞開(kāi)發(fā)啊,真的就是一句話的事兒。例如你想做一個(gè)fashion一點(diǎn)的電商網(wǎng)站,那么你只需要來(lái)上一句:然后啊,這個(gè)AI就開(kāi)始思考你需求的意圖了。但畢竟咱們Prompt過(guò)于簡(jiǎn)單了,于是乎,這個(gè)AI還貼心地基于需求,給出了諸多細(xì)節(jié)選項(xiàng),包括:響應(yīng)式設(shè)計(jì),適配不同設(shè)備商品分類和搜索功能購(gòu)物車(chē)和結(jié)?

    • 理想自研星環(huán)OS正式開(kāi)源!操作系統(tǒng)代碼已開(kāi)放下載

      理想汽車(chē)4月28日宣布自研"星環(huán)OS"操作系統(tǒng)正式開(kāi)源,成為全球首個(gè)實(shí)現(xiàn)整車(chē)級(jí)操作系統(tǒng)全面開(kāi)源的車(chē)企。該系統(tǒng)代碼已通過(guò)Gitee平臺(tái)開(kāi)放下載,采用Apache License V2.0開(kāi)源協(xié)議,覆蓋智能車(chē)控、智能駕駛、通信中間件、信息安全四大核心模塊。該系統(tǒng)不同于車(chē)載屏幕系統(tǒng),而是整車(chē)全鏈路操作系統(tǒng),包括車(chē)輛控制等核心功能。研發(fā)始于2021年,投入200名研發(fā)人員和10億元人民幣。系統(tǒng)采用資源集中與共享架構(gòu),支持英飛凌、地平線等主流車(chē)規(guī)芯片,芯片適配驗(yàn)證時(shí)間比傳統(tǒng)閉源系統(tǒng)縮短80%。在性能方面,AI算力虛擬化損耗降低80%,傳感器訪問(wèn)時(shí)延降低90%,存儲(chǔ)資源占用減少30%,響應(yīng)速度比AUTOSAR提升1倍。安全性能方面,120km/h高速狀態(tài)下AEB剎停距離縮短7米。

    • 提升大模型自動(dòng)修Bug能力 豆包正式開(kāi)源首個(gè)多語(yǔ)言類SWE數(shù)據(jù)集

      今日,字節(jié)跳動(dòng)豆包大模型團(tuán)隊(duì)宣布,正式開(kāi)源首個(gè)多語(yǔ)言類SWE數(shù)據(jù)集Multi-SWE-bench,可用于評(píng)估和提升大模型自動(dòng)修Bug”能力。在SWE-bench基礎(chǔ)上,Multi-SWE-bench首次覆蓋Python之外的7種主流編程語(yǔ)言,是真正面向全棧工程”的評(píng)測(cè)基準(zhǔn)。相比于以往聚焦Python的單語(yǔ)言任務(wù),Multi-SWE-bench更貼近現(xiàn)實(shí)中的多語(yǔ)言開(kāi)發(fā)場(chǎng)景,也更能反映當(dāng)前模型在自動(dòng)化軟件工程”方向上的實(shí)際能力邊界。

    • 1000萬(wàn)上下文!新開(kāi)源多模態(tài)大模型,單個(gè)GPU就能運(yùn)行

      今年2月初,谷歌發(fā)布的Gemini2.0Pro支持200萬(wàn)上下文,震驚了整個(gè)大模型領(lǐng)域。僅過(guò)了2個(gè)月,Meta最新開(kāi)源的Llama4Scout就將上下文擴(kuò)展至1000萬(wàn),整整提升了5倍開(kāi)啟千萬(wàn)級(jí)時(shí)代。根據(jù)實(shí)驗(yàn)數(shù)據(jù)顯示,Llama4Behemoth在MMLUPro、GPQA、MATH-500等測(cè)試的數(shù)據(jù)比GPT-4.5、ClaudeSonnet3.7、Gemini2.0Pro更好。

    • NVIDIA PhysX物理加速不死!內(nèi)核源代碼終于開(kāi)源

      PhysX物理加速技術(shù)已經(jīng)不再有NVIDIA官方的支持,但并不意味著這項(xiàng)優(yōu)秀技術(shù)會(huì)消失在歷史的長(zhǎng)河中,因?yàn)樗耆_(kāi)源了!其實(shí)早在2018年底,NVIDIA就公開(kāi)了PhysXSDK4.0開(kāi)發(fā)包,根據(jù)BSD-3許可協(xié)議公開(kāi)了源代碼,但不包括最核心的GPU模擬內(nèi)核。理論上完全可以將PhysX代碼從CUDA平臺(tái)上,移植到Vulcan、OpenCL,從支持AMD、Intel顯卡。

    • LIama 4發(fā)布重奪開(kāi)源第一!DeepSeek同等代碼能力但參數(shù)減一半,一張H100就能跑,還有兩萬(wàn)億參數(shù)超大杯

      AI不過(guò)周末,硅谷也是如此。Llama家族上新,一群LIama4就這么突然發(fā)布了。太平洋這頭,已經(jīng)開(kāi)始落地應(yīng)用和智能體了。

    • 模型時(shí)代的智能營(yíng)銷(xiāo),從“玩具”到“工具箱”

      百度在Create大會(huì)上強(qiáng)調(diào)AI應(yīng)用創(chuàng)造真正價(jià)值,發(fā)布智能營(yíng)銷(xiāo)一體化應(yīng)用"客悅·ONE"。李彥宏指出,沒(méi)有應(yīng)用場(chǎng)景的芯片和模型毫無(wú)價(jià)值。百度智能云升級(jí)后整合文心、DeepSeek等大模型能力,實(shí)現(xiàn)從數(shù)據(jù)洞察到智慧觸達(dá)的閉環(huán)營(yíng)銷(xiāo)體系。該產(chǎn)品在金融等行業(yè)已落地見(jiàn)效,自助解決率達(dá)93%以上,支持多模態(tài)交互和全渠道管理。百度通過(guò)全棧自研AI架構(gòu)降低開(kāi)發(fā)成本,推動(dòng)行業(yè)智能化轉(zhuǎn)型。

    熱文

    • 3 天
    • 7天