无码在线播放二区|久久亚洲精品国产精品|无码视频在线观看一区二区|在线观看国产日韩亚洲中

  • <menu id="yw4o4"></menu>
  • 
    <menu id="yw4o4"><em id="yw4o4"></em></menu>
  • 首頁(yè) > 原創(chuàng) > 關(guān)鍵詞  > 人工智能最新資訊  > 正文

    AI日?qǐng)?bào):可生成漢字!智譜開源文生圖模型CogView4;大模型工具Ollama存在嚴(yán)重漏洞;騰訊元寶下載量超DeepSeek

    2025-03-04 15:25 · 稿源:站長(zhǎng)之家

    歡迎來(lái)到【AI日?qǐng)?bào)】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。

    新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/

    1、智譜發(fā)布首個(gè)能生成漢字的開源文生圖模型CogView4

    2025年3月4日,北京智譜華章科技有限公司推出了CogView4,這是首個(gè)支持生成漢字的開源文生圖模型,具備強(qiáng)大的雙語(yǔ)輸入和圖像生成能力。該模型在DPG-Bench基準(zhǔn)測(cè)試中排名第一,成為開源文生圖模型中的SOTA,支持任意分辨率和復(fù)雜語(yǔ)義對(duì)齊,滿足廣告和短視頻等領(lǐng)域的需求。

    【AiBase提要:】

    ?? CogView4是首個(gè)支持生成漢字的開源文生圖模型,具備強(qiáng)大的雙語(yǔ)輸入能力。

    ?? 該模型在DPG-Bench基準(zhǔn)測(cè)試中排名第一,成為開源文生圖模型中的SOTA。

    ?? CogView4支持Apache2.0協(xié)議,后續(xù)將增加生態(tài)支持和微調(diào)工具包。

    詳情鏈接:https://github.com/THUDM/CogView4

    2、重磅!MiniMax推全新圖像生成模型 Image-01,使用成本僅為1/10

    MiniMax最近推出了其首款文本到圖像生成模型Image-01,標(biāo)志著AI圖像生成技術(shù)的新進(jìn)展。該模型以其卓越的提示控制能力和視覺(jué)構(gòu)圖能力而備受矚目,用戶可以創(chuàng)造出邏輯一致且藝術(shù)感十足的圖像。此外,Image-01的高效批處理功能和極具競(jìng)爭(zhēng)力的價(jià)格,使得專業(yè)級(jí)AI創(chuàng)作變得更加易于獲取。用戶能夠以更低的成本體驗(yàn)到電影級(jí)質(zhì)量的圖像,極大地拓展了他們的創(chuàng)意空間。

    image.png

    【AiBase提要:】

    ?? Image-01是一款全新的文本到圖像生成模型,旨在拓展用戶的創(chuàng)意空間。

    ?? 該模型具備精確的提示控制和卓越的視覺(jué)構(gòu)圖能力,能夠產(chǎn)生邏輯一致且藝術(shù)感十足的圖像。

    ?? Image-01的服務(wù)費(fèi)用僅為同類產(chǎn)品的十分之一,使專業(yè)級(jí) AI 創(chuàng)作變得更加易于獲取。

    詳情鏈接:https://www.minimax.io/platform/login

    3、騰訊元寶下載量超DeepSeek 登頂蘋果免費(fèi)App下載榜第一

    騰訊元寶在蘋果中國(guó)區(qū)App Store的免費(fèi)App下載排行榜上取得了顯著成就,成功超越DeepSeek,成為下載量最高的應(yīng)用。騰訊公司通過(guò)加強(qiáng)推廣和技術(shù)升級(jí),提升了元寶的曝光率和吸引力,尤其是在微信平臺(tái)的整合方面,用戶體驗(yàn)得到了極大改善。

    超越DeepSeek!騰訊元寶登蘋果App Store免費(fèi)下載榜第一

    【AiBase提要:】

    ?? 騰訊元寶成功超越DeepSeek,成為蘋果免費(fèi)App下載榜首。

    ?? 騰訊加大對(duì)元寶的推廣力度,尤其是在微信平臺(tái)的曝光。

    ?? 技術(shù)升級(jí)和功能優(yōu)化為元寶的快速發(fā)展提供了保障。

    4、秘塔AI搜索上線「視頻」搜索功能

    2025年3月3日,上海秘塔網(wǎng)絡(luò)科技有限公司推出了新的AI搜索功能,新增了視頻搜索模塊。這一功能通過(guò)分析大量視頻內(nèi)容,幫助用戶更高效地找到所需的學(xué)習(xí)和娛樂(lè)視頻。用戶可以快速定位到感興趣的視頻,提升了搜索體驗(yàn)。

    image.png

    【AiBase提要:】

    ?? 新增視頻搜索模塊,覆蓋多模態(tài)數(shù)據(jù),提升用戶體驗(yàn)。

    ?? 用戶可快速定位到感興趣的視頻內(nèi)容,如課程或廣告分析。

    ?? 接入DeepSeek R1推理模型,進(jìn)一步增強(qiáng)搜索智能化水平。

    5、顛覆城市建模!AI生成3D城市模型GaussianCity,生成速度提升60倍!

    南洋理工大學(xué)的研究團(tuán)隊(duì)推出的GaussianCity技術(shù)在3D城市模型生成領(lǐng)域取得了顯著突破。該技術(shù)實(shí)現(xiàn)了生成速度的60倍提升,并支持無(wú)邊界的3D城市生成,已被CVPR2025接收。GaussianCity采用了創(chuàng)新的BEV-Point表示方法和空間感知的高斯屬性解碼器,極大地提升了計(jì)算效率和可擴(kuò)展性。

    【AiBase提要:】

    ?? GaussianCity技術(shù)實(shí)現(xiàn)了60倍的生成速度提升,打破傳統(tǒng)方法的規(guī)模限制。

    ?? 采用BEV-Point表示方法,顯著降低顯存需求,實(shí)現(xiàn)無(wú)邊界的3D城市生成。

    ?? 該技術(shù)已開源,為虛擬現(xiàn)實(shí)、自動(dòng)駕駛和城市規(guī)劃等領(lǐng)域帶來(lái)新的應(yīng)用潛力。

    詳情鏈接:https://github.com/hzxie/GaussianCity

    6、警惕安全隱患!Ollama 大模型工具被指存在嚴(yán)重漏洞

    國(guó)家網(wǎng)絡(luò)安全通報(bào)中心近期發(fā)布了針對(duì)開源跨平臺(tái)大模型工具Ollama的安全預(yù)警,指出其在默認(rèn)配置下存在嚴(yán)重安全漏洞,可能導(dǎo)致未授權(quán)訪問(wèn)和模型竊取等風(fēng)險(xiǎn)。專家分析表明,尤其是私有化部署用戶面臨更大風(fēng)險(xiǎn),攻擊者可利用這些漏洞進(jìn)行數(shù)據(jù)泄露和服務(wù)中斷等攻擊。

    【AiBase提要:】

    ?? Ollama的安全漏洞在默認(rèn)配置下嚴(yán)重,特別是私有化部署用戶風(fēng)險(xiǎn)顯著。

    ?? 攻擊者可利用未授權(quán)訪問(wèn)進(jìn)行模型信息竊取和服務(wù)中斷,帶來(lái)重大損失。

    ??? 用戶需加強(qiáng)安全意識(shí),及時(shí)排查隱患,發(fā)現(xiàn)攻擊跡象應(yīng)立即報(bào)告相關(guān)部門。

    7、超強(qiáng)視頻生成模型 Wan2.1GP:低配GPU也能搞定大片!

    DeepBeepMeep團(tuán)隊(duì)推出的Wan2.1GP是一個(gè)針對(duì)低端GPU用戶優(yōu)化的視頻生成模型,基于阿里巴巴的Wan2.1,旨在為缺乏高性能GPU資源的用戶提供強(qiáng)大的視頻生成能力。該模型在多個(gè)基準(zhǔn)測(cè)試中表現(xiàn)優(yōu)異,支持多種生成任務(wù),并具備中英文文本生成能力,標(biāo)志著視頻生成技術(shù)的一個(gè)重要進(jìn)步。

    【AiBase提要:】

    ?? SOTA 性能: Wan2.1GP在多個(gè)基準(zhǔn)測(cè)試中表現(xiàn)優(yōu)異,超過(guò)現(xiàn)有開源和商業(yè)解決方案。

    ??? 兼容性強(qiáng): 僅需8.19GB顯存,支持幾乎所有消費(fèi)級(jí)GPU,適合低端用戶。

    ?? 多任務(wù)支持: 支持文本到視頻、圖像到視頻等多種生成任務(wù),并具備中英文文本生成能力。

    詳情鏈接:https://github.com/deepbeepmeep/Wan2GP

    8、火山引擎宣布大模型應(yīng)用開源:上線“大模型應(yīng)用實(shí)驗(yàn)室”,釋放 AI 創(chuàng)新潛力

    火山引擎通過(guò)X平臺(tái)宣布大模型應(yīng)用正式開源,并推出全新“大模型應(yīng)用實(shí)驗(yàn)室”平臺(tái)。這一舉措標(biāo)志著其在AI技術(shù)生態(tài)建設(shè)上的重大突破,旨在加速開發(fā)者社區(qū)的創(chuàng)新步伐。開源應(yīng)用涵蓋手機(jī)助手、Deep Research等前沿AI工具,受到用戶熱議,展現(xiàn)了火山引擎在技術(shù)上的領(lǐng)先實(shí)力。

    【AiBase提要:】

    ?? 開源應(yīng)用包括手機(jī)助手、Deep Research等,提供多種AI工具,促進(jìn)開發(fā)者創(chuàng)新。

    ?? “大模型應(yīng)用實(shí)驗(yàn)室”上線,為開發(fā)者和研究人員提供開放實(shí)驗(yàn)環(huán)境,探索大模型應(yīng)用潛力。

    ?? 社區(qū)反響熱烈,用戶認(rèn)為這一舉措降低了AI開發(fā)門檻,推動(dòng)行業(yè)協(xié)作與創(chuàng)新。

    9、QQ瀏覽器推出“AI作文輔導(dǎo)”功能

    QQ瀏覽器推出的“AI作文輔導(dǎo)”功能旨在幫助學(xué)生提升寫作能力,而不僅僅是提供答案。該功能通過(guò)全流程的寫作技巧輔導(dǎo),幫助學(xué)生在立意、提綱、素材和范文生成的每一步中獲得指導(dǎo)。AI工具強(qiáng)調(diào)輔助作用,鼓勵(lì)學(xué)生多閱讀和思考,以掌握寫作技巧,而非簡(jiǎn)單復(fù)制粘貼。

    image.png

    【AiBase提要:】

    ?? AI作文輔導(dǎo)功能幫助學(xué)生在寫作過(guò)程中提升能力,而不僅僅是提供答案。

    ?? 該功能通過(guò)全流程指導(dǎo),涵蓋立意、提綱、素材和范文生成的每一步。

    ?? QQ瀏覽器強(qiáng)調(diào)多閱讀和思考的重要性,鼓勵(lì)學(xué)生掌握寫作技巧。

    10、Anthropic融資35億美元,估值飆升至615億美元

    Anthropic近日完成了35億美元的E輪融資,融資后估值達(dá)到615億美元,顯示出投資者對(duì)AI市場(chǎng)的持續(xù)熱情。此次融資由Lightspeed Venture Partners領(lǐng)投,吸引了眾多知名投資者的參與,資金將用于推進(jìn)下一代AI系統(tǒng)的開發(fā)。盡管市場(chǎng)競(jìng)爭(zhēng)激烈,Anthropic依然專注于B2B戰(zhàn)略,致力于為全球企業(yè)提供技術(shù)支持。

    【AiBase提要:】

    ?? Anthropic完成35億美元E輪融資,估值達(dá)到615億美元,顯示出投資者對(duì)AI市場(chǎng)的持續(xù)熱情。

    ?? 公司年收入在2024年達(dá)到了10億美元,同比增長(zhǎng)十倍,并在2025年初再次增長(zhǎng)30%。

    ?? 亞馬遜和谷歌分別向Anthropic投資80億美元和30億美元,支持其B2B戰(zhàn)略。

    11、從編碼到創(chuàng)意寫作 xAI Grok-3擊敗 GPT4.5全能登頂大模型競(jìng)技場(chǎng)

    xAI最近推出的Grok-3模型在Chatbot Arena排行榜上表現(xiàn)出色,憑借微弱優(yōu)勢(shì)超越了GPT4.5-Preview。這款名為“grok-3preview-02-24”的模型在多個(gè)領(lǐng)域展現(xiàn)了卓越性能,包括編碼、數(shù)學(xué)、創(chuàng)意寫作等。盡管被稱為最新生產(chǎn)模型,但“preview”一詞暗示其仍在測(cè)試階段,可能引發(fā)對(duì)其生產(chǎn)就緒性的討論。

    【AiBase提要:】

    ?? Grok-3在Chatbot Arena中以微弱優(yōu)勢(shì)超越了GPT4.5-Preview,獲得超過(guò)3,000票,表現(xiàn)卓越。

    ?? 模型在困難提示、編碼、數(shù)學(xué)問(wèn)題、創(chuàng)意寫作等多個(gè)領(lǐng)域表現(xiàn)出色,顯示出其強(qiáng)大的能力。

    ?? Chatbot Arena使用Elo評(píng)級(jí)系統(tǒng)進(jìn)行模型排名,標(biāo)志著xAI在AI領(lǐng)域的顯著進(jìn)展。

    12、雷軍兩會(huì)建議:建議加強(qiáng)“AI換臉擬聲”違法侵權(quán)重災(zāi)區(qū)治理

    在2025全國(guó)兩會(huì)上,小米集團(tuán)創(chuàng)始人雷軍提出五項(xiàng)重要建議,旨在推動(dòng)自動(dòng)駕駛、智能網(wǎng)聯(lián)新能源汽車、人工智能終端等領(lǐng)域的發(fā)展。他強(qiáng)調(diào)了完善人工智能終端標(biāo)準(zhǔn)體系的重要性,呼吁制定以用戶體驗(yàn)為導(dǎo)向的智能化分級(jí)標(biāo)準(zhǔn),并強(qiáng)化國(guó)際國(guó)內(nèi)標(biāo)準(zhǔn)的有效銜接。

    【AiBase提要:】

    ?? 加快推進(jìn)自動(dòng)駕駛量產(chǎn),提升技術(shù)應(yīng)用效率。

    ?? 發(fā)展智能網(wǎng)聯(lián)新能源汽車產(chǎn)業(yè)生態(tài),促進(jìn)綠色出行。

    ?? 加強(qiáng)對(duì)“AI換臉擬聲”違法侵權(quán)的治理,保護(hù)用戶權(quán)益。

    舉報(bào)

    • 相關(guān)推薦
    • Llama 4大模型跌落神壇:作弊刷榜、代碼能力極差、和DeepSeek比就是偽開源

      被寄予厚望的美國(guó)Meta公司的最新開源大模型Llama4發(fā)布不到2天時(shí)間,口碑急轉(zhuǎn)直下,被質(zhì)疑為刷榜作弊實(shí)際效果差、開源條件多部署門檻高是偽開源等。大模型評(píng)測(cè)平臺(tái)LMArena親自下場(chǎng)發(fā)文,打臉Meta提供給平臺(tái)的Llama4是“特供版”。Meta若繼續(xù)在商業(yè)控制與技術(shù)開放之間搖擺,恐將在AI競(jìng)賽中進(jìn)一步失去開發(fā)者支持。

    • 反擊DeepSeek失?。?span id="r777jzh" class="col-red02">Llama 4效果不好,Meta承認(rèn)有問(wèn)題

      今天凌晨1點(diǎn)半,Meta生成式AI領(lǐng)導(dǎo)者AhmadAl-Dahle在社交平臺(tái)發(fā)布了一篇長(zhǎng)文,對(duì)前天剛開源的Llama4質(zhì)疑進(jìn)行了官方回應(yīng)。Ahmad表示,Llama4一開發(fā)完就發(fā)布了,所以,不同服務(wù)中模型質(zhì)量難免會(huì)有一些差異。由于關(guān)稅大戰(zhàn)的原因,Meta的股票遭遇重創(chuàng),他們也需要一個(gè)利好消息來(lái)拉升股票,現(xiàn)在適得其反。

    • 實(shí)錘了,Llama 4重測(cè)排名掉至32名!遠(yuǎn)不及DeepSeek和Qwen

      LMArena更新了Meta最新發(fā)布的開源大模型Llama-4-Maverick的排名,從此前的第2名,直線掉到了第32名!這也實(shí)錘了此前開發(fā)者對(duì)Meta為刷榜排名向LMArena提供了“特供版”的Llama4大模型的質(zhì)疑。開源版同款Llama-4-Maverick-17B-128E-Instruct在LMArena的排名為32名,遠(yuǎn)低于Gemini2.5Pro、GPT4o、DeepSeek-V3-0324、DeepSeek-R1、Qwen2.5-Max,甚至連英偉達(dá)基于上一代Llama3.3改造的Llama-3.3-Nemotron-Super-49B-v1都不如。

    • 剛剛,Llama 4深夜開源擊敗DeepSeek V3!2萬(wàn)億多模態(tài)巨獸搶回王座

      Llama4重磅發(fā)布了!Meta官宣開源首個(gè)原生多模態(tài)Llama4,首次采用的MoE架構(gòu),支持12種語(yǔ)言,首批發(fā)布一共兩款:Llama4Scout:共有1090億參數(shù),17B活躍參數(shù),16個(gè)專家,1000萬(wàn)上下Llama4Maverick:共有4000億參數(shù),17B活躍參數(shù),128個(gè)專家,100萬(wàn)上下文另外,2萬(wàn)億參數(shù)Llama4Behemoth將在未來(lái)幾個(gè)月面世,288B活躍參數(shù),16個(gè)專家。Llama4的橫空出世,成為迄今為止開源最強(qiáng),多模態(tài)能力最好的模型之一。L

    • DeepSeek上新!開源發(fā)布DeepSeek-Prover-V2-671B新模型

      快科技4月30日消息,今日,DeepSeek 今日在 AI 開源社區(qū) Hugging Face 發(fā)布了一個(gè)名為 DeepSeek-Prover-V2-671B 的新模型。據(jù)介紹,DeepSeek-Prover-V2-671B 其參數(shù)量達(dá)到6710億,使用了更高效的 safetensors 文件格式,并支持 BF16、FP8、F32 等多種計(jì)算精度,方便模型更快、更省資源地訓(xùn)練和部署。在模型架構(gòu)上,該模型使用了DeepSeek-V3架構(gòu),采用MoE(混合專家)模式,具有61層Transformer層,7168維隱藏層。同時(shí)支持超長(zhǎng)上下文,最大位置嵌入達(dá)163840,使其能處理復(fù)雜的數(shù)學(xué)證明,并且采用了FP8量化,可通過(guò)量化技術(shù)減小模型大小,提

    • DeepSeek領(lǐng)航大模型普惠化浪潮,xAI/微美全息加速開源AI布局打造新格局

      DeepSeek 作為當(dāng)前最受關(guān)注的大模型之一,憑借其技術(shù)創(chuàng)新正在加速 AI 普惠化進(jìn)程。根據(jù)機(jī)構(gòu)新報(bào)告顯示,DeepSeek已經(jīng)成為全球增長(zhǎng)最快的AI工具,其每月新增網(wǎng)站訪問(wèn)量已經(jīng)超過(guò)OpenAI的ChatGPT。DeepSeek市場(chǎng)份額全球第三目前,DeepSeek市場(chǎng)份額6.58%,僅次于ChatGPT和Canva。DeepSeek是繼ChatGPT之后的又一現(xiàn)象級(jí)AI產(chǎn)品,它的市場(chǎng)份額從2.34%快速增長(zhǎng)至6.58%,展現(xiàn)出強(qiáng)勁的增長(zhǎng)態(tài)勢(shì)。全球著名?

    • DeepSeek紅利耗盡后,元寶拿什么和豆包斗?

      短短60天內(nèi),中國(guó)AI原生應(yīng)用下載排行榜的位次排名,就三易其主。最新情況是,截至4月15日中午,中國(guó)區(qū)蘋果應(yīng)用商店免費(fèi)APP下載排行榜上,豆包再次超越DeepSeek,位列第二,緊隨其后的DeepSeek被擠到了第三的位置,騰訊元寶則滑落到了第七名。2月13日,作為首家在C端主力產(chǎn)品中接入DeepSeek-R1滿血版的元寶,一度趁著DeepSeek東風(fēng)崛起:3月3日力壓DeepSeek和豆包,首度登頂。但好景?

    • DeepSeek+物流行業(yè),AI大模型破解五大場(chǎng)景效能困局

      文章探討了AI大模型在物流行業(yè)的應(yīng)用現(xiàn)狀與挑戰(zhàn)。以DeepSeek為代表的AI技術(shù)正通過(guò)重構(gòu)業(yè)務(wù)流程、優(yōu)化資源配置、提升決策效率等方式,成為推動(dòng)行業(yè)降本增效的核心引擎。但成功應(yīng)用AI大模型需要企業(yè)具備數(shù)字化基礎(chǔ)、業(yè)務(wù)流程標(biāo)準(zhǔn)化和數(shù)據(jù)治理能力,而非簡(jiǎn)單技術(shù)堆砌。G7+易流梳理出五大核心應(yīng)用場(chǎng)景:工作效能輔助、經(jīng)營(yíng)數(shù)據(jù)分析、安全審查、智能客服和知識(shí)管理。這些

    • IQ 過(guò)百的 AI 模型名單發(fā)布:ChatGPT、Deepseek等上榜

      人工智能IQ哪家強(qiáng)?o3 智商高達(dá) 132、Gemini 2.5 Pro Exp. 拿下 128 分、Claude 憑借 3.7 Sonnet Extended 位列第四、Deepsee R 1……

    • 奧特曼:ChatGPT不是AGI!OpenAI最強(qiáng)開源模型直擊DeepSeek

      【新智元導(dǎo)讀】代碼截圖泄露,滿血版o3、o4-mini鎖定下周!更勁爆的是,一款據(jù)稱是OpenAI的神秘模型一夜爆紅,每日處理高達(dá)260億token,是Claude用量4倍。奧特曼在TED放話:將推超強(qiáng)開源模型,直面DeepSeek挑戰(zhàn)。持續(xù)的創(chuàng)新、豐富的資源和智能AI將會(huì)無(wú)縫融入日常生活,未來(lái)一代人將會(huì)覺(jué)得當(dāng)前人們又辛苦又落后。