无码在线播放二区|久久亚洲精品国产精品|无码视频在线观看一区二区|在线观看国产日韩亚洲中

  • <menu id="yw4o4"></menu>
  • 
    <menu id="yw4o4"><em id="yw4o4"></em></menu>
  • 首頁(yè) > 業(yè)界 > 關(guān)鍵詞  > BioEmu-1最新資訊  > 正文

    有望治愈癌癥!微軟開(kāi)源新模型,諾獎(jiǎng)級(jí)重大突破

    2025-02-21 08:50 · 稿源: ?AIGC開(kāi)放社區(qū)公眾號(hào)

    今天凌晨,微軟在官網(wǎng)開(kāi)源了,最新動(dòng)態(tài)蛋白質(zhì)生成模型BioEmu-1。BioEmu-1能在單個(gè)GPU上每小時(shí)生成數(shù)千種蛋白質(zhì)結(jié)構(gòu),生成效率比傳統(tǒng) MD 模擬提高了幾個(gè)數(shù)量級(jí)。這種超高效率的蛋白質(zhì)生成,可以幫助醫(yī)學(xué)家更全面、快速地了解靶點(diǎn)蛋白質(zhì)的動(dòng)態(tài)變化,設(shè)計(jì)出有效治療癌癥等絕癥藥物。例

    ......

    本文由站長(zhǎng)之家合作伙伴自媒體作者“?AIGC開(kāi)放社區(qū)公眾號(hào)”授權(quán)發(fā)布于站長(zhǎng)之家平臺(tái),本平臺(tái)僅提供信息索引服務(wù)。由于內(nèi)容發(fā)布時(shí)間超過(guò)平臺(tái)更新維護(hù)時(shí)間,為了保證文章信息的及時(shí)性,內(nèi)容觀點(diǎn)的準(zhǔn)確性,平臺(tái)將不提供完全的內(nèi)容展現(xiàn),本頁(yè)面內(nèi)容僅為平臺(tái)搜索索引使用。需閱讀完整內(nèi)容的用戶,請(qǐng)查看原文,獲取內(nèi)容詳情。

    舉報(bào)

    • 相關(guān)推薦
    • 阿里開(kāi)源通義新模型:指定首尾圖片生成視頻

      快科技4月18日消息,據(jù)報(bào)道,阿里巴巴旗下通義萬(wàn)相宣布開(kāi)源其創(chuàng)新視頻生成技術(shù)首尾幀生視頻14B模型。這項(xiàng)突破性AI技術(shù)能夠根據(jù)用戶提供的起始和結(jié)束畫(huà)面,智能生成720p高清過(guò)渡視頻,為視頻創(chuàng)作帶來(lái)全新可能。該模型通過(guò)先進(jìn)的深度學(xué)習(xí)算法,能夠精準(zhǔn)理解輸入畫(huà)面的內(nèi)容、風(fēng)格及主題特征。當(dāng)用戶提供首尾兩幀圖像后,模型會(huì)智能分析畫(huà)面中的視覺(jué)元素,包括物體形?

    • 開(kāi)源即支持!基于昇騰MindSpeed MM玩轉(zhuǎn)InternVL3多模態(tài)理解最新模型

      多模態(tài)理解領(lǐng)域當(dāng)前已成了各家AI大模型公司“軍備競(jìng)賽”的關(guān)鍵點(diǎn)之一,國(guó)內(nèi)外知名AI大模型公司都爭(zhēng)相通過(guò)發(fā)布最先進(jìn)的多模態(tài)大語(yǔ)言模型展現(xiàn)其在多模態(tài)理解領(lǐng)域的前沿能力。近期,上海AI實(shí)驗(yàn)室推出了其最新的多模態(tài)大語(yǔ)言模型InternVL3 系列,相比上一代InternVL2. 5 模型,該模型展現(xiàn)出卓越的多模態(tài)感知和推理能力,同時(shí)進(jìn)一步擴(kuò)展了其工具使用、GUI代理、工業(yè)圖像分析等

    • 字節(jié)AI加速文生圖技術(shù)新突破,GOOG/微美全息引領(lǐng)開(kāi)源大模型釋放科技勢(shì)能

      字節(jié)跳動(dòng)發(fā)布豆包1.5深度思考模型,升級(jí)文生圖能力。該模型在專業(yè)領(lǐng)域和通用任務(wù)中表現(xiàn)突出,采用MoE架構(gòu),總參數(shù)量200B,激活參數(shù)20B,推理成本優(yōu)勢(shì)顯著。同時(shí),其圖像生成模型Seedream 3.0性能追平GPT-4o等頂尖模型。全球AI產(chǎn)業(yè)加速發(fā)展,開(kāi)源模型降低技術(shù)門檻,推動(dòng)商業(yè)化落地。微美全息等企業(yè)構(gòu)建開(kāi)放AI生態(tài),DeepSeek等公司通過(guò)開(kāi)源策略促進(jìn)技術(shù)普惠。行業(yè)迎來(lái)"開(kāi)源AI+"新階段,企業(yè)需把握機(jī)遇應(yīng)對(duì)挑戰(zhàn)。

    • DeepSeek上新!開(kāi)源發(fā)布DeepSeek-Prover-V2-671B新模型

      快科技4月30日消息,今日,DeepSeek 今日在 AI 開(kāi)源社區(qū) Hugging Face 發(fā)布了一個(gè)名為 DeepSeek-Prover-V2-671B 的新模型。據(jù)介紹,DeepSeek-Prover-V2-671B 其參數(shù)量達(dá)到6710億,使用了更高效的 safetensors 文件格式,并支持 BF16、FP8、F32 等多種計(jì)算精度,方便模型更快、更省資源地訓(xùn)練和部署。在模型架構(gòu)上,該模型使用了DeepSeek-V3架構(gòu),采用MoE(混合專家)模式,具有61層Transformer層,7168維隱藏層。同時(shí)支持超長(zhǎng)上下文,最大位置嵌入達(dá)163840,使其能處理復(fù)雜的數(shù)學(xué)證明,并且采用了FP8量化,可通過(guò)量化技術(shù)減小模型大小,提

    • 中國(guó)智力持續(xù)發(fā)力,智象未來(lái)開(kāi)源模型再獲國(guó)際認(rèn)可

      國(guó)內(nèi)AI企業(yè)智象未來(lái)研發(fā)的開(kāi)源圖像生成模型HiDream-I1近日取得重要突破:該模型憑借17B參數(shù)規(guī)模,在圖像真實(shí)感、細(xì)節(jié)處理及指令響應(yīng)能力上超越行業(yè)標(biāo)桿,多項(xiàng)評(píng)測(cè)指標(biāo)超過(guò)GPT-4o與Flux1.1。繼登頂AI基準(zhǔn)測(cè)試平臺(tái)Artificial Analysis、獲Hugging Face收錄后,該模型正式被谷歌技術(shù)生態(tài)體系收錄,成為首個(gè)登頂該平臺(tái)榜首的中國(guó)自研開(kāi)源模型。其24小時(shí)內(nèi)登頂?shù)募o(jì)錄,被視為中國(guó)AI技術(shù)全球競(jìng)爭(zhēng)力的重要里程碑。谷歌的收錄將推動(dòng)HiDream-I1觸達(dá)全球開(kāi)發(fā)者,助力開(kāi)源生態(tài)共建進(jìn)入新發(fā)展階段。

    • AI日?qǐng)?bào):阿里新模型Qwen3即將來(lái)襲;GitHub開(kāi)源MCP服務(wù)器;Runway發(fā)布Gen-4 Turbo

      歡迎來(lái)到【AI日?qǐng)?bào)】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開(kāi)發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/1、Qwen3即將來(lái)襲:阿里云新模型相關(guān)支持已正式合并至vLLM代碼庫(kù)阿里云的Qwen3模型即將發(fā)布,標(biāo)志著其在AI領(lǐng)域的又一重要進(jìn)展。新推出的AI聽(tīng)歌報(bào)告能夠精準(zhǔn)識(shí)別用戶音樂(lè)偏好,場(chǎng)景

    • 字節(jié)發(fā)布豆包1.5深度思考模型:“實(shí)拍級(jí)”圖像生成

      快科技4月17日消息,據(jù)報(bào)道,今日,在火山引擎AI創(chuàng)新巡展杭州站的現(xiàn)場(chǎng),字節(jié)跳動(dòng)旗下火山引擎總裁譚待正式發(fā)布了備受矚目的豆包1.5深度思考模型。譚待指出,豆包1.5深度思考模型在多個(gè)關(guān)鍵領(lǐng)域展現(xiàn)出卓越性能。在數(shù)學(xué)、編程、科學(xué)推理這類專業(yè)領(lǐng)域中,它能夠精準(zhǔn)高效地處理復(fù)雜問(wèn)題;在創(chuàng)意寫作等通用任務(wù)方面,同樣表現(xiàn)出色。該模型采用MoE架構(gòu),總參數(shù)為200B,激?

    • 提升大模型自動(dòng)修Bug能力 豆包正式開(kāi)源首個(gè)多語(yǔ)言類SWE數(shù)據(jù)集

      今日,字節(jié)跳動(dòng)豆包大模型團(tuán)隊(duì)宣布,正式開(kāi)源首個(gè)多語(yǔ)言類SWE數(shù)據(jù)集Multi-SWE-bench,可用于評(píng)估和提升大模型自動(dòng)修Bug”能力。在SWE-bench基礎(chǔ)上,Multi-SWE-bench首次覆蓋Python之外的7種主流編程語(yǔ)言,是真正面向全棧工程”的評(píng)測(cè)基準(zhǔn)。相比于以往聚焦Python的單語(yǔ)言任務(wù),Multi-SWE-bench更貼近現(xiàn)實(shí)中的多語(yǔ)言開(kāi)發(fā)場(chǎng)景,也更能反映當(dāng)前模型在自動(dòng)化軟件工程”方向上的實(shí)際能力邊界。

    • 阿里千問(wèn)3登頂全球最強(qiáng)開(kāi)源模型 已在通義App上線

      阿里集團(tuán)推出新一代開(kāi)源AI模型"通義千問(wèn)3"(Qwen3),包含8款不同規(guī)格的混合推理模型。旗艦型號(hào)Qwen3-235B采用混合專家架構(gòu),創(chuàng)下國(guó)產(chǎn)模型性能新紀(jì)錄;Qwen3-32B則以部署成本低、運(yùn)行穩(wěn)定見(jiàn)長(zhǎng)。該系列在邏輯推理、編程、翻譯等專業(yè)領(lǐng)域表現(xiàn)卓越,用戶可通過(guò)通義App和網(wǎng)頁(yè)版體驗(yàn)。升級(jí)后的通義App整合問(wèn)答對(duì)話、圖像理解與生成等多項(xiàng)功能,持續(xù)強(qiáng)化代碼生成、數(shù)學(xué)解題等專業(yè)場(chǎng)景應(yīng)用能力,致力于打造實(shí)用性強(qiáng)的個(gè)人AI助手。

    • 1000萬(wàn)上下文!新開(kāi)源多模態(tài)大模型,單個(gè)GPU就能運(yùn)行

      今年2月初,谷歌發(fā)布的Gemini2.0Pro支持200萬(wàn)上下文,震驚了整個(gè)大模型領(lǐng)域。僅過(guò)了2個(gè)月,Meta最新開(kāi)源的Llama4Scout就將上下文擴(kuò)展至1000萬(wàn),整整提升了5倍開(kāi)啟千萬(wàn)級(jí)時(shí)代。根據(jù)實(shí)驗(yàn)數(shù)據(jù)顯示,Llama4Behemoth在MMLUPro、GPQA、MATH-500等測(cè)試的數(shù)據(jù)比GPT-4.5、ClaudeSonnet3.7、Gemini2.0Pro更好。

    熱文

    • 3 天
    • 7天