无码在线播放二区|久久亚洲精品国产精品|无码视频在线观看一区二区|在线观看国产日韩亚洲中

  • <menu id="yw4o4"></menu>
  • 
    <menu id="yw4o4"><em id="yw4o4"></em></menu>
  • 首頁(yè) > 業(yè)界 > 關(guān)鍵詞  > 阿里最新資訊  > 正文

    新SOTA來(lái)了:國(guó)產(chǎn)9B模型多項(xiàng)得分超4o-mini,中國(guó)出海電商已經(jīng)用上了

    2024-09-19 17:42 · 稿源: 量子位公眾號(hào)

    阿里開(kāi)源,又拿第一了。這次是在多模態(tài)領(lǐng)域:就在剛剛,阿里國(guó)際AI團(tuán)隊(duì)開(kāi)源多模態(tài)大模型Ovis1.6。在多模態(tài)權(quán)威綜合評(píng)測(cè)基準(zhǔn)OpenCompass上,Ovis1.6-Gemma2-9B版本綜合得分超越Qwen2VL-7B、InternVL2-26B和MiniCPM-V-2.6等主流開(kāi)源模型,在300億以下參數(shù)開(kāi)源模型中位居第一。在數(shù)學(xué)推

    ......

    本文由站長(zhǎng)之家合作伙伴自媒體作者“量子位公眾號(hào)”授權(quán)發(fā)布于站長(zhǎng)之家平臺(tái),本平臺(tái)僅提供信息索引服務(wù)。由于內(nèi)容發(fā)布時(shí)間超過(guò)平臺(tái)更新維護(hù)時(shí)間,為了保證文章信息的及時(shí)性,內(nèi)容觀點(diǎn)的準(zhǔn)確性,平臺(tái)將不提供完全的內(nèi)容展現(xiàn),本頁(yè)面內(nèi)容僅為平臺(tái)搜索索引使用。需閱讀完整內(nèi)容的用戶,請(qǐng)查看原文,獲取內(nèi)容詳情。

    舉報(bào)

    • 相關(guān)推薦
    • OpenAI發(fā)布o3、o4 mini模型,實(shí)現(xiàn)“看圖說(shuō)話”,糊圖也行!

      從 GPT-5 開(kāi)始,推理模型和非推理模型很有可能會(huì)整合在一起……

    • 首次實(shí)現(xiàn)圖像思考 OpenAI重磅發(fā)布o3/o4-mini:史上最強(qiáng)、最智能模型

      快科技4月17日消息,今日,OpenAI新款A(yù)I模型o3、o4-mini重磅發(fā)布,這是OpenAI迄今最強(qiáng)、最智能的模型。據(jù)了解,OpenAI o3/o4-mini首次具備真正的視覺(jué)推理能力,看圖識(shí)圖已經(jīng)是小菜一碟了,現(xiàn)在還會(huì)看圖思考。OpenAI o3/o4-mini能同時(shí)處理文本、圖像和音頻,并且能作為Agent智能體自動(dòng)調(diào)用網(wǎng)絡(luò)搜索、圖像生成、代碼解析等工具以及深度思考模式。通過(guò)強(qiáng)化學(xué)習(xí),OpenAI訓(xùn)練了o3/o4-mini如何?

    • 外媒:ChatGPT模型 o4 mini 的“AI幻覺(jué)率”高達(dá)48%

      性能是提升了些,但,“胡說(shuō)八道”的能力提升得更快,直接登頂……

    • OpenAI深夜上線o3滿血版和o4 mini - 依舊領(lǐng)先。

      晚上1點(diǎn),OpenAI的直播如約而至。其實(shí)在預(yù)告的時(shí)候,幾乎已經(jīng)等于明示了。沒(méi)有廢話,今天發(fā)布的就是o3和o4-mini。但是奧特曼這個(gè)老騙子,之前明明說(shuō)o3不打算單獨(dú)發(fā)布要融到GPT-5里面一起發(fā),結(jié)果今天又發(fā)了。。。ChatGPT Plus、Pro和Team用戶從今天開(kāi)始將在模型選擇器中看到o3、o4-mini和o4-mini-high,取代o1、o3-mini和o3-mini-high。我的已經(jīng)變了,但是我最想要的o3pro,還要幾周才能提供

    • AI日?qǐng)?bào):字節(jié)發(fā)布豆包1.5深度思考模型;微信首個(gè)AI助手 “元寶” 上線;OpenAI發(fā)布o4-mini、滿血版o3

      歡迎來(lái)到【AI日?qǐng)?bào)】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開(kāi)發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/1、OpenAI發(fā)布兩款多模態(tài)推理模型o4-mini、滿血版o3OpenAI在技術(shù)直播中推出了其最新的多模態(tài)模型o4-mini和滿血版o3,這兩款模型具備同時(shí)處理文本、圖像和音頻的能力,并能調(diào)用外部工?

    • AI日?qǐng)?bào):智譜開(kāi)源32B/9B系列GLM模型并啟用Z.ai域名;OpenAI發(fā)布GPT-4.1系列模型;阿里魔搭上線MCP廣場(chǎng)

      歡迎來(lái)到【AI日?qǐng)?bào)】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開(kāi)發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/1、智譜AI啟用全新域名Z.ai 并開(kāi)源32B/9B 系列 GLM 模型智譜技術(shù)團(tuán)隊(duì)近期宣布開(kāi)源32B和9B系列的GLM模型,并推出全新交互體驗(yàn)平臺(tái)Z.ai。這些模型遵循MIT許可協(xié)議,支持商業(yè)用途,提升了

    • 迄今最貴!谷歌Gemini 2.5 Pro API定價(jià)公布:每百萬(wàn)輸入tokens9

      據(jù)報(bào)道,谷歌近日公布了Gemini2.5Pro的API定價(jià),基礎(chǔ)定價(jià)為每百萬(wàn)輸入tokens1.25美元,每百萬(wàn)輸出tokens10美元。對(duì)于超過(guò)20萬(wàn)tokens的長(zhǎng)文本輸入,價(jià)格調(diào)整為每百萬(wàn)輸入tokens2.50美元,輸出tokens15美元。谷歌CEO桑達(dá)爾皮查伊表示,Gemini2.5Pro是目前最受開(kāi)發(fā)者歡迎的AI模型,僅本月在GoogleAIStudio和GeminiAPI上的使用量就增長(zhǎng)了80%。

    • 海信Mini LED旗艦新品要來(lái)了?號(hào)稱是電視界首款“高定”電視!

      海信推出高端電視U8Q系列新品,主打"電視界首款高定電視"概念。該產(chǎn)品搭載新一代"光色同控"AI畫(huà)質(zhì)芯片,采用京東方定制黑曜屏Ultra,實(shí)現(xiàn)行業(yè)頂級(jí)低反射率與極致對(duì)比度;音響系統(tǒng)與帝瓦雷合作,提供3D環(huán)繞音效。U8Q系列通過(guò)全鏈路定制化方案,從芯片到屏幕再到音響系統(tǒng)均實(shí)現(xiàn)高端定制,重新定義頂級(jí)電視標(biāo)準(zhǔn)。海信此舉旨在突破行業(yè)同質(zhì)化競(jìng)爭(zhēng),將高端市場(chǎng)競(jìng)爭(zhēng)維度提升至"用戶需求定制"層面。數(shù)據(jù)顯示,海信U8系列已連續(xù)多年占據(jù)高端電視銷(xiāo)量前列,U8Q的推出將進(jìn)一步鞏固其在萬(wàn)元級(jí)市場(chǎng)的領(lǐng)先優(yōu)勢(shì)。

    • 超過(guò)ChatGPT、Deepseek?谷歌發(fā)布 Gemini 2.5 Flash AI 模型

      新版AI模型縮短了響應(yīng)時(shí)間,節(jié)約了運(yùn)算成本;還推出了新的AI芯片“Ironwood”。谷歌發(fā)布了新的AI模型“Gemini2.5Flash”,據(jù)稱,這款A(yù)I模型的性能比OpenAI和DeepSeek的AI產(chǎn)品“更高效”。谷歌計(jì)劃在三星今年上半年推出的AI伴侶機(jī)器人Ballie上搭載生成式AI模型。

    • 秒殺同行!Kimi開(kāi)源全音頻基礎(chǔ)模型,橫掃十多項(xiàng)基準(zhǔn)測(cè)試,總體性能第一

      Kimi-Audio是一款開(kāi)源的通用音頻基礎(chǔ)模型,在語(yǔ)音識(shí)別、音頻理解、音頻轉(zhuǎn)文本、語(yǔ)音對(duì)話等任務(wù)中表現(xiàn)優(yōu)異。該模型采用集成式架構(gòu)設(shè)計(jì),包含音頻分詞器、音頻大模型和音頻去分詞器三大核心組件,支持多模態(tài)輸入處理。在十余項(xiàng)音頻基準(zhǔn)測(cè)試中,Kimi-Audio均取得領(lǐng)先性能,如LibriSpeech ASR測(cè)試WER僅1.28%,VocalSound測(cè)試達(dá)94.85%。模型使用1300萬(wàn)小時(shí)多語(yǔ)言音頻數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練,并構(gòu)建了自動(dòng)處理流水線生成高質(zhì)量訓(xùn)練數(shù)據(jù)。評(píng)估結(jié)果顯示,Kimi-Audio在語(yǔ)音識(shí)別、音樂(lè)理解、語(yǔ)音情感分析等任務(wù)上全面超越同類(lèi)模型,在OpenAudioBench和VoiceBench對(duì)話測(cè)試中也表現(xiàn)最佳。目前模型代碼、檢查點(diǎn)和評(píng)估工具包已在GitHub開(kāi)源。

    熱文

    • 3 天
    • 7天