无码在线播放二区|久久亚洲精品国产精品|无码视频在线观看一区二区|在线观看国产日韩亚洲中

  • <menu id="yw4o4"></menu>
  • 
    <menu id="yw4o4"><em id="yw4o4"></em></menu>
  • 首頁 > 業(yè)界 > 關(guān)鍵詞  > 開源最新資訊  > 正文

    谷歌研究人員在 JAX 中引入了一個開源庫 用于在球面上進行深度學(xué)習(xí)

    2023-10-11 16:33 · 稿源:站長之家

    站長之家(ChinaZ.com)10月11日 消息:Google研究人員最近推出了一個基于JAX的開源庫,旨在解決在球面上進行深度學(xué)習(xí)的挑戰(zhàn)。傳統(tǒng)的深度學(xué)習(xí)模型通常處理平面數(shù)據(jù),例如圖像,但科學(xué)應(yīng)用中的數(shù)據(jù)通常是球面數(shù)據(jù)。這個新庫利用了球面卷積和交叉相關(guān)操作,以更有效地處理球面數(shù)據(jù)。

    image.png

    研究人員認(rèn)為這個庫在分子性質(zhì)預(yù)測和氣象預(yù)測等領(lǐng)域具有巨大潛力,因為它能夠處理具有球面特性的數(shù)據(jù),如分子結(jié)構(gòu)和氣象數(shù)據(jù)。通過處理這些數(shù)據(jù),研究人員能夠提高模型的性能,解決數(shù)據(jù)采樣和旋轉(zhuǎn)穩(wěn)健性的問題。

    這項研究有望對醫(yī)療研究和氣候分析產(chǎn)生深遠(yuǎn)影響,為社會帶來變革性進展。這個開源庫的發(fā)布標(biāo)志著深度學(xué)習(xí)領(lǐng)域在處理復(fù)雜球面數(shù)據(jù)方面的一項重要進展。

    要點:

    1. Google研究人員推出了一個基于JAX的開源庫,用于在球面上進行深度學(xué)習(xí),解決了處理球面數(shù)據(jù)的挑戰(zhàn)。

    2. 傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)和視覺變換模型通常處理平面數(shù)據(jù),而這個庫利用球面卷積和交叉相關(guān)操作來提高數(shù)據(jù)處理效率。

    3. 這項研究有望在分子性質(zhì)預(yù)測和氣象預(yù)測等領(lǐng)域取得突破性進展,為醫(yī)療研究和氣候分析提供有力支持。

    舉報

    • 相關(guān)推薦
    • 研究人員推出深度學(xué)習(xí)模型RECAST 改進地震預(yù)測

      來自加州伯克利分校、圣克魯斯分校以及慕尼黑工業(yè)大學(xué)的研究人員發(fā)表論文,闡述了一種嶄新的模型,將深度學(xué)習(xí)引入地震預(yù)測領(lǐng)域。該模型被命名為RECAST,相比自1988年問世以來改進有限的當(dāng)前標(biāo)準(zhǔn)模型ETAS,RECAST可利用更大的數(shù)據(jù)集,提供更高的靈活性。你會看到它朝著正確的方向發(fā)展。

    • DeepMind研究人員發(fā)現(xiàn),深度學(xué)習(xí)模型在圖像和音頻壓縮方面表現(xiàn)出色

      Google旗下的人工智能子公司DeepMind發(fā)布的一項研究表明,大型語言模型除了在文本數(shù)據(jù)處理方面表現(xiàn)出色之外具備出色的圖像和音頻數(shù)據(jù)壓縮能力。這一發(fā)現(xiàn)為重新審視LLMs的潛力提供了新的角度。這表明LLMs的性能與數(shù)據(jù)集的大小有關(guān),壓縮率可以作為評估模型對數(shù)據(jù)集信息學(xué)習(xí)的指標(biāo)。

    • JoJoGAN:可一鍵生成藝術(shù)化面部圖像的深度學(xué)習(xí)模型

      JoJoGAN是一個深度學(xué)習(xí)模型,該模型可以將普通的面部圖像轉(zhuǎn)化為藝術(shù)化的作品,無需專業(yè)藝術(shù)家或設(shè)計師的干預(yù)。這項技術(shù)可用于各種應(yīng)用領(lǐng)域,包括藝術(shù)創(chuàng)作、虛擬角色設(shè)計、社交媒體濾鏡和廣告營銷。它的技術(shù)細(xì)節(jié)和使用指南在文章中都得到了詳細(xì)介紹,為感興趣的用戶提供了寶貴的資源。

    • srf-attention:一個提高深度學(xué)習(xí)模型訓(xùn)練效率的注意力機制

      注意力很有用,但計算成本很高。一旦訓(xùn)練完成,通過一些微調(diào)計算,您可以減少SRF注意力并消除對序列長度的依賴,從大大加快速度。它可以幫助研究人員和開發(fā)者更高效地構(gòu)建和訓(xùn)練深度學(xué)習(xí)模型,提高模型的性能和效率。

    • 韓國研究人員開發(fā)小樣本學(xué)習(xí)模型,僅憑腦波數(shù)據(jù)就能發(fā)現(xiàn)人的意圖

      韓國Daegu科技大學(xué)機器人與機械工程系的SanghyunPark教授領(lǐng)導(dǎo)的研究團隊宣布,他們已經(jīng)成功開發(fā)了一種小樣本學(xué)習(xí)模型,僅需少量信息就能夠準(zhǔn)確分類腦波。這一突破性的研究可能會對未來與腦波相關(guān)的研究產(chǎn)生積極影響。這一研究的突破性將有望在未來的醫(yī)療和腦機接口領(lǐng)域產(chǎn)生深遠(yuǎn)的影響,為更好理解和應(yīng)用腦波數(shù)據(jù)打開了新的可能性。

    • AI研究人員發(fā)現(xiàn)了主要大語言模型關(guān)鍵漏洞 可低成本復(fù)制

      大型語言模型如ChatGPT和Bard在全球范圍內(nèi)引起了廣泛的關(guān)注,眾多公司投資數(shù)百萬美元用于開發(fā)這些人工智能工具一些領(lǐng)先的AI聊天機器人的估值已達到了數(shù)十億美元。這些LLM主要被應(yīng)用于AI聊天機器人,它們通過整合互聯(lián)網(wǎng)上的大量信息來學(xué)習(xí)和為用戶提供請求的答案,這些請求通常被稱為“提示”?!边@項研究為我們提醒了雖然AI技術(shù)帶來了巨大的機會,但也伴隨著一系列潛在的威脅,因此必須謹(jǐn)慎行事。

    • 深度學(xué)習(xí)模型部署與優(yōu)化:策略與實踐;L40S與A100、H100的對比分析

      ★深度學(xué)習(xí)、機器學(xué)習(xí)、生成式AI、深度神經(jīng)網(wǎng)絡(luò)、抽象學(xué)習(xí)、Seq2Seq、VAE、GAN、GPT、BERT、預(yù)訓(xùn)練語言模型、Transformer、ChatGPT、GenAI、多模態(tài)大模型、視覺大模型、TensorFlow、PyTorch、Batchnorm、Scale、Crop算子、L40S、A100、H100、A800、H800隨著生成式AI應(yīng)用的迅猛發(fā)展,我們正處在前所未有的大爆發(fā)時代。四、性價比較根據(jù)SuperMicro的數(shù)據(jù),L40S在性價比上相較于A100具有優(yōu)勢,為希望部署高效且具有競爭力的生成式人工智能解決方案的用戶提供更多選擇。在模型分發(fā)和運行過程中,提供全面的賬號認(rèn)證和日志審計功能,全方位保障模型和數(shù)據(jù)的安全性。

    • 研究人員發(fā)現(xiàn)使用少見語言即可繞過GPT-4的限制

      布朗大學(xué)的計算機科學(xué)研究人員發(fā)現(xiàn)了OpenAI的GPT-4存在的安全性問題。通過使用不常見的語言,如祖魯語和蓋爾語,他們成功繞過了GPT-4的限制性設(shè)置。盡管他們意識到這一研究可能會給網(wǎng)絡(luò)犯罪分子提供想法,但他們?nèi)匀徽J(rèn)為將這一漏洞公之于眾是必要的,因為利用現(xiàn)有的翻譯API輕松實施這些攻擊,因此那些試圖繞過安全防護的惡意行為者最終會發(fā)現(xiàn)這一漏洞。

    • UCSD 研究人員開源Graphologue:將LLM文本響應(yīng)轉(zhuǎn)化為交互式圖表

      大型語言模型如GPT-4因其生成各種用戶查詢的文本響應(yīng)的能力變得極為流行。盡管它們具有強大的功能,但在有效傳達復(fù)雜信息方面存在一些限制。Graphologue代表了使LLM互動更直觀和有效的重大進步。

    • 微軟研究人員用兒童故事進行訓(xùn)練:微型語言模型進入成熟期

      學(xué)習(xí)英語并不容易,許多學(xué)生都深有體會。但當(dāng)學(xué)生是一臺計算機時,有一種方法表現(xiàn)出奇地出色:只需將大量來自互聯(lián)網(wǎng)的文本輸入到一個名為神經(jīng)網(wǎng)絡(luò)的巨大數(shù)學(xué)模型中。他們的研究結(jié)果暗示了可能有助于訓(xùn)練更大型模型并理解其行為的新研究方向。