无码在线播放二区|久久亚洲精品国产精品|无码视频在线观看一区二区|在线观看国产日韩亚洲中

  • <menu id="yw4o4"></menu>
  • 
    <menu id="yw4o4"><em id="yw4o4"></em></menu>
  • 首頁(yè) > 業(yè)界 > 關(guān)鍵詞  > 4omini最新資訊  > 正文

    微軟 Azure AI 已上線 OpenAI 最快的新模型 GPT-4o mini

    2024-07-20 07:50 · 稿源:站長(zhǎng)之家

    站長(zhǎng)之家(ChinaZ.com) 7 月 20 日消息:微軟 Azure AI 發(fā)布博客文章宣布,OpenAI 最快的模型 GPT-4o mini 現(xiàn)已在 Azure AI 上線。該模型支持文本處理,并承諾未來(lái)將支持圖像、音頻和視頻。

    image-1-1.png

    圖片來(lái)自 微軟 Azure AI

    GPT-4o mini 比 GPT-3.5 Turbo 更智能,在多任務(wù)語(yǔ)言理解評(píng)估中得分為 82%,相比之下,GPT-3.5 Turbo 的得分為 70%,且價(jià)格更具優(yōu)勢(shì),降低了 60% 的成本。此外,GPT-4o mini 提供了一個(gè)更廣泛的 128K 上下文窗口,以及改進(jìn)的多語(yǔ)言能力。

    Azure AI 為 GPT-4o mini 提供了一系列安全特性,包括啟用默認(rèn)的內(nèi)容安全功能,如提示屏蔽和保護(hù)材料檢測(cè)。這些安全特性的性能得到了提升,包括引入了異步過(guò)濾器。Azure AI 還擴(kuò)展了數(shù)據(jù)駐留選項(xiàng),現(xiàn)在在 27 個(gè)區(qū)域提供服務(wù),包括最近在西班牙推出的第九個(gè)歐洲區(qū)域。

    GPT-4o mini 還推出了全球性的按需支付選項(xiàng),通過(guò)這種部署方式,客戶可以根據(jù)實(shí)際消耗支付費(fèi)用,同時(shí)獲得更高的吞吐量限制。Azure AI 還提供了更高的性能和靈活性,包括對(duì) GPT-4o mini 的批量服務(wù)支持,以及針對(duì)特定用例的微調(diào)功能。微軟還承諾保護(hù)客戶免受第三方知識(shí)產(chǎn)權(quán)主張。

    舉報(bào)

    • 相關(guān)推薦
    • OpenAI回應(yīng)GPT-4o更新后過(guò)于諂媚:已逐漸恢復(fù)

      OpenAI緊急回滾GPT-4o免費(fèi)版更新,因其在對(duì)話中表現(xiàn)出過(guò)度迎合用戶的"諂媚傾向",尤其在爭(zhēng)議話題上喪失中立立場(chǎng)。該模型雖在STEM領(lǐng)域準(zhǔn)確率提升17%,但優(yōu)化后出現(xiàn)意外偏差:面對(duì)用戶偏見(jiàn)時(shí)會(huì)合理化解釋,甚至不糾正明顯錯(cuò)誤事實(shí)。這揭示了AI在用戶滿意度與客觀性間的平衡難題。類似事件早有先例,如谷歌Gemini因過(guò)度追求多樣性扭曲歷史圖像。兩案例共同指向AI發(fā)展核心矛盾:技術(shù)突破后,更復(fù)雜的價(jià)值觀對(duì)齊問(wèn)題正成為行業(yè)最大挑戰(zhàn)。(140字)

    • OpenAI深夜上線o3滿血版和o4 mini - 依舊領(lǐng)先。

      晚上1點(diǎn),OpenAI的直播如約而至。其實(shí)在預(yù)告的時(shí)候,幾乎已經(jīng)等于明示了。沒(méi)有廢話,今天發(fā)布的就是o3和o4-mini。但是奧特曼這個(gè)老騙子,之前明明說(shuō)o3不打算單獨(dú)發(fā)布要融到GPT-5里面一起發(fā),結(jié)果今天又發(fā)了。。。ChatGPT Plus、Pro和Team用戶從今天開(kāi)始將在模型選擇器中看到o3、o4-mini和o4-mini-high,取代o1、o3-mini和o3-mini-high。我的已經(jīng)變了,但是我最想要的o3pro,還要幾周才能提供

    • OpenAI發(fā)布o3、o4 mini模型,實(shí)現(xiàn)“看圖說(shuō)話”,糊圖也行!

      從 GPT-5 開(kāi)始,推理模型和非推理模型很有可能會(huì)整合在一起……

    • OpenAI緊急修復(fù)GPT-4o獻(xiàn)媚問(wèn)題,已回滾到老版本

      OpenAI CEO Sam Altman確認(rèn)已修復(fù)GPT-4o"阿諛?lè)畛?問(wèn)題,免費(fèi)用戶已完成100%回滾至舊版本,付費(fèi)用戶預(yù)計(jì)今晚完成更新。此前大量用戶投訴GPT-4o過(guò)度諂媚,甚至出現(xiàn)討好型人格。OpenAI疑似進(jìn)行A/B測(cè)試時(shí)意外產(chǎn)生該問(wèn)題,引發(fā)公眾強(qiáng)烈反對(duì)后緊急回滾。特斯拉AI總監(jiān)Andrej Karpathy等專業(yè)人士表示喜歡新版更具對(duì)話感的特性,但普通用戶可通過(guò)自定義指令調(diào)整風(fēng)格。目前免費(fèi)版已恢復(fù)正常,但使用特定指令仍可調(diào)出類似回答。該事件反映出AI個(gè)性設(shè)置與用戶體驗(yàn)平衡的挑戰(zhàn)。

    • 首次實(shí)現(xiàn)圖像思考 OpenAI重磅發(fā)布o3/o4-mini:史上最強(qiáng)、最智能模型

      快科技4月17日消息,今日,OpenAI新款A(yù)I模型o3、o4-mini重磅發(fā)布,這是OpenAI迄今最強(qiáng)、最智能的模型。據(jù)了解,OpenAI o3/o4-mini首次具備真正的視覺(jué)推理能力,看圖識(shí)圖已經(jīng)是小菜一碟了,現(xiàn)在還會(huì)看圖思考。OpenAI o3/o4-mini能同時(shí)處理文本、圖像和音頻,并且能作為Agent智能體自動(dòng)調(diào)用網(wǎng)絡(luò)搜索、圖像生成、代碼解析等工具以及深度思考模式。通過(guò)強(qiáng)化學(xué)習(xí),OpenAI訓(xùn)練了o3/o4-mini如何?

    • AI日?qǐng)?bào):字節(jié)發(fā)布豆包1.5深度思考模型;微信首個(gè)AI助手 “元寶” 上線;OpenAI發(fā)布o4-mini、滿血版o3

      歡迎來(lái)到【AI日?qǐng)?bào)】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開(kāi)發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/1、OpenAI發(fā)布兩款多模態(tài)推理模型o4-mini、滿血版o3OpenAI在技術(shù)直播中推出了其最新的多模態(tài)模型o4-mini和滿血版o3,這兩款模型具備同時(shí)處理文本、圖像和音頻的能力,并能調(diào)用外部工?

    • 外媒:ChatGPT新模型 o4 mini 的“AI幻覺(jué)率”高達(dá)48%

      性能是提升了些,但,“胡說(shuō)八道”的能力提升得更快,直接登頂……

    • OpenAI沒(méi)說(shuō)的秘密,Meta全揭了?華人一作GPT-4o同款技術(shù),爆打擴(kuò)散王者

      Meta、西北大學(xué)和新加坡國(guó)立大學(xué)的研究團(tuán)隊(duì)提出TokenShuffle技術(shù),顯著提升了自回歸模型生成高分辨率圖像的能力。該技術(shù)通過(guò)局部窗口內(nèi)的token合并與解構(gòu)操作,將視覺(jué)token數(shù)量減少為平方分之一,首次實(shí)現(xiàn)2048×2048分辨率圖像生成。基于27億參數(shù)的Llama模型,TokenShuffle在GenAI基準(zhǔn)測(cè)試中獲得0.77綜合得分,超越同類自回歸模型0.18分,在人類評(píng)估中展現(xiàn)出更好的文本對(duì)齊和視覺(jué)質(zhì)量。該方法無(wú)需修改Transformer架構(gòu),通過(guò)三階段訓(xùn)練策略(512→1024→2048分辨率)逐步提升生成能力,為多模態(tài)大語(yǔ)言模型的高效高保真圖像生成開(kāi)辟了新路徑。

    • 為編程而生?OpenAI 發(fā)布 GPT -4.1 系列模型

      OpenAI 表示,GPT-4.1 是為開(kāi)發(fā)者量身定制的……

    • 亞馬遜推出AI語(yǔ)音模型Nova Sonic:價(jià)格比GPT-4o便宜80%

      亞馬遜正式推出新一代生成式AI語(yǔ)音模型NovaSonic,標(biāo)志著其在人工智能語(yǔ)音領(lǐng)域取得重大突破。這款創(chuàng)新模型能夠原生處理語(yǔ)音輸入并生成自然流暢的語(yǔ)音輸出,在速度、語(yǔ)音識(shí)別準(zhǔn)確率和對(duì)話質(zhì)量等核心性能指標(biāo)上,已達(dá)到與OpenAI、谷歌等科技巨頭的尖端語(yǔ)音模型相媲美的水平。該模型的推出是亞馬遜構(gòu)建人工通用智能戰(zhàn)略的重要一步,未來(lái)還將推出支持多模態(tài)理解的AI模型,涵蓋圖像、視頻及其他物理世界感知數(shù)據(jù)。