无码在线播放二区|久久亚洲精品国产精品|无码视频在线观看一区二区|在线观看国产日韩亚洲中

  • <menu id="yw4o4"></menu>
  • 
    <menu id="yw4o4"><em id="yw4o4"></em></menu>
  • 首頁 > 業(yè)界 > 關(guān)鍵詞  > LayoutNUWA最新資訊  > 正文

    LayoutNUWA:一個(gè)基于大型語言模型的布局生成工具

    2023-09-21 11:16 · 稿源:站長之家

    站長之家(ChinaZ.com)9月21日 消息:在網(wǎng)上創(chuàng)建引人注目的設(shè)計(jì)對(duì)于吸引用戶的興趣和幫助他們理解信息非常重要。這種新方法,被稱為LayoutNUWA,通過使用語言模型將編碼指令轉(zhuǎn)化為出色的布局,使這些設(shè)計(jì)更加智能。

    LayoutNUWA的核心在于,它通過理解編程語言的指令,自動(dòng)生成美觀的網(wǎng)頁布局。這使得網(wǎng)頁設(shè)計(jì)師可以更專注于創(chuàng)新設(shè)計(jì),而不是繁瑣的編程工作。

    image.png

    項(xiàng)目地址:https://github.com/projectnuwa/layoutnuwa

    這種方法不僅提高了設(shè)計(jì)的效率,也使得設(shè)計(jì)更具吸引力。此外,LayoutNUWA也有助于減少設(shè)計(jì)與開發(fā)之間的隔閡,使得兩者能更好地協(xié)同工作。

    核心功能:

    1. 模型性能提升: LayoutNUWA利用LLaMA2-7B和CodeLLaMA-7B作為其核心模型,這些模型具有強(qiáng)大的自然語言處理和代碼生成能力,可顯著提升布局生成的性能。

    2. 數(shù)據(jù)集準(zhǔn)備: LayoutNUWA支持Rico和PubLayNet數(shù)據(jù)集,用戶可以輕松地下載并準(zhǔn)備這些數(shù)據(jù)集,以供布局生成任務(wù)使用。

    3. 數(shù)字布局轉(zhuǎn)化為代碼格式: 用戶可以使用LayoutNUWA將數(shù)字布局?jǐn)?shù)據(jù)轉(zhuǎn)化為代碼格式,為Rico等數(shù)據(jù)集生成代碼,從而實(shí)現(xiàn)自動(dòng)化的布局生成。

    4. 模型訓(xùn)練和推理: LayoutNUWA提供了訓(xùn)練和推理功能,用戶可以根據(jù)自己的需求自定義訓(xùn)練參數(shù),以獲得最佳的布局生成模型。

    5. 評(píng)估功能: 用戶可以使用LayoutNUWA來評(píng)估生成的布局結(jié)果,從而了解模型的性能和準(zhǔn)確性。

    通過這些核心功能,LayoutNUWA為用戶提供了一個(gè)強(qiáng)大的布局生成工具,可以應(yīng)用于各種項(xiàng)目和領(lǐng)域,從而提高布局生成的效率和質(zhì)量。

    舉報(bào)

    • 相關(guān)推薦
    • 用PIT框架提升大型語言模型的質(zhì)量

      傳統(tǒng)方法中,提高LLMs性能需要通過人工注釋來收集更多多樣化和高質(zhì)量的訓(xùn)練數(shù)據(jù),但這是一項(xiàng)資源密集型的任務(wù),尤其是對(duì)于專業(yè)領(lǐng)域言。為了解決這個(gè)問題,來自伊利諾伊大學(xué)厄巴納-香檳分校和Google的研究人員提出了“ImplicitSelf-Improvementframework”。通過從人類偏好數(shù)據(jù)中學(xué)習(xí)改進(jìn)目標(biāo),PIT解決了傳統(tǒng)提示方法的限制,并展示了在各種數(shù)據(jù)集和條件下提高LLMs響應(yīng)質(zhì)量的有效性。

    • Lakera推出API,保護(hù)大型語言模型免受惡意提示攻擊

      瑞士初創(chuàng)公司Lakera最近發(fā)布了一款旨在保護(hù)企業(yè)免受大型語言模型的惡意提示攻擊的API。這項(xiàng)舉措旨在解決LLMs在生成人類語言文本方面的卓越性能,但也可能受到惡意攻擊的問題,尤其是通過所謂的“promptinjection”技術(shù)。通過將攻擊轉(zhuǎn)化為統(tǒng)計(jì)結(jié)構(gòu),Lakera有望在這一領(lǐng)域發(fā)揮重要作用,并確保企業(yè)可以安全地利用LLM的強(qiáng)大功能。

    • Evisort成功開發(fā)法律合同領(lǐng)域的大型語言模型(LLM)

      Evisort成功開發(fā)了專門用于法律協(xié)議的大型語言模型,并將其作為其新的多方位生成AI引擎的關(guān)鍵組成部分。該LLM將使Evisort能夠提供比通用的第三方LLMs更準(zhǔn)確和響應(yīng)更靈活的AI創(chuàng)新,從幫助組織更好地管理合同。這一創(chuàng)新也受到了業(yè)界的認(rèn)可,得到了微軟風(fēng)投M12的高度評(píng)價(jià)。

    • DistilBERT:更小、更快、更便宜的大型語言模型壓縮方法

      大型語言模型的發(fā)展迅猛,BERT成為其中最受歡迎和高效的模型,但其復(fù)雜性和可擴(kuò)展性成為問題。為了解決這些問題,市面上目前由三種常見的模型壓縮技術(shù):知識(shí)蒸餾、量化和剪枝。DistilBERT通過知識(shí)蒸餾技術(shù)在保持性能的同時(shí)顯著壓縮了大型語言模型,為在資源受限設(shè)備上的部署提供了可能性。

    • 英偉達(dá)與 Anyscale 合作:提高大型語言模型生成式 AI 應(yīng)用的開發(fā)效率

      用于生成式AI工具的大型語言模型通常會(huì)極大地增加對(duì)更多處理器的需求,這些處理器通常價(jià)格昂貴且供應(yīng)受限。即使是云資源也不能總是解決企業(yè)試圖擴(kuò)展規(guī)模并利用最新的生成式AI技術(shù)所面臨的問題。」Anyscale首席執(zhí)行官兼聯(lián)合創(chuàng)始人RobertNishihara在一份聲明中表示。

    • LayoutLM:一個(gè)擅長閱讀商業(yè)文件的模型

      LayoutLM是一個(gè)擅長閱讀商業(yè)文件的模型,通過兩種新的訓(xùn)練方式進(jìn)行改進(jìn),提升了理解復(fù)雜布局和獲取正確數(shù)值的能力。這一改進(jìn)使得LayoutLM能夠更有效地處理和理解商業(yè)文件,特別是那些布局復(fù)雜、包含大量數(shù)值的文件。無論是在市場營銷、財(cái)務(wù)管理還是供應(yīng)鏈管理等領(lǐng)域,LayoutLM都有望發(fā)揮重要作用,幫助企業(yè)提高效率、降低成本,并實(shí)現(xiàn)更好的商業(yè)成果。

    • NVIDIA發(fā)布SteerLM:個(gè)性化定制大型語言模型響應(yīng)的新AI方法

      在人工智能領(lǐng)域,開發(fā)人員和用戶一直面臨一個(gè)挑戰(zhàn),那就是需要更加定制和細(xì)致的大型語言模型響應(yīng)。雖然這些模型,比如Llama2,可以生成類似人類的文本,但它們通常需要提供真正針對(duì)個(gè)體用戶獨(dú)特需求的答案。開發(fā)人員現(xiàn)在有機(jī)會(huì)訪問代碼,并使用HuggingFace等平臺(tái)上提供的自定義的13BLlama2模型來嘗試這一技術(shù)。

    • 秒懂生成式AI—大語言模型是如何生成內(nèi)容的?

      備受關(guān)注的大語言模型,核心是自然語言的理解與文本內(nèi)容的生成,對(duì)于此,你是否好奇過它們究竟是如何理解自然語言并生成內(nèi)容的,其工作原理又是什么呢?要想了解這個(gè),我們就不得不先跳出大語言模型的領(lǐng)域,來到機(jī)器翻譯這里。傳統(tǒng)的機(jī)器翻譯方式是采用RNN循環(huán)神經(jīng)網(wǎng)絡(luò)。以上就是大語言模型的工作原理了,強(qiáng)大Transformer的實(shí)用性還不止于在自然語言處理領(lǐng)域,包括?

    • 谷歌、CMU研究表明:語言模型通過使用良好的視覺tokenizer首次擊敗了擴(kuò)散模型

      來自谷歌、CMU的研究發(fā)現(xiàn),語言模型在圖像、視頻生成領(lǐng)域的性能一直不如擴(kuò)散模型,主要原因是缺乏有效的視覺表示。通過引入一種名為MAGVIT-v2的視頻tokenizer,采用無查找量化和增強(qiáng)功能的設(shè)計(jì),研究者成功改進(jìn)了圖像和視頻生成的質(zhì)量,超越了現(xiàn)有技術(shù)。通過這一研究,我們可以看到語言模型在視覺生成領(lǐng)域的潛力,以及如何通過創(chuàng)新的設(shè)計(jì)和改進(jìn)來實(shí)現(xiàn)更好的性能。

    • OpenLM:一個(gè)專為中等規(guī)模語言模型設(shè)計(jì)的模型訓(xùn)練庫

      OpenLM是一個(gè)旨在訓(xùn)練中等規(guī)模語言模型的PyTorch代碼庫,它強(qiáng)調(diào)了最大化GPU利用率和訓(xùn)練速度的設(shè)計(jì)。該庫已經(jīng)通過訓(xùn)練OpenLM-1B和OpenLM-7B兩個(gè)語言模型,分別在1.6T和1.25T的文本標(biāo)記上進(jìn)行驗(yàn)證,取得了令人矚目的成果。OpenLM的團(tuán)隊(duì)成員和致謝也在文章中列出,表明了該項(xiàng)目的合作性質(zhì)和開源精神。