无码在线播放二区|久久亚洲精品国产精品|无码视频在线观看一区二区|在线观看国产日韩亚洲中

  • <menu id="yw4o4"></menu>
  • 
    <menu id="yw4o4"><em id="yw4o4"></em></menu>
  • 首頁 > 業(yè)界 > 關(guān)鍵詞  > 正文

    對(duì)標(biāo)GPT-4 Turbo!OpenAI斷供后 科大訊飛星火API調(diào)用量大增

    2024-07-09 06:46 · 稿源: 快科技

    七月八日,快科技報(bào)道,OpenAI 于六月停止向中國(guó)提供 API 服務(wù)。業(yè)內(nèi)人士認(rèn)為,此舉將影響部分利用 OpenAI 大模型創(chuàng)業(yè)的公司。

    近期,有投資者向科大訊飛詢問,是否會(huì)接手 OpenAI 在中國(guó)的 API 業(yè)務(wù)。

    科大訊飛回應(yīng)稱,OpenAI 停止中國(guó)服務(wù)后,訊飛星火的 API 調(diào)用量顯著增加,這證明了自主研發(fā)通用大模型底座的必要性。

    對(duì)標(biāo) GPT-4 Turbo!OpenAI 斷供后 科大訊飛星火 API 調(diào)用量大增

    六月二十七日,科大訊飛發(fā)布訊飛星火大模型 V4.0,宣布其七項(xiàng)核心能力全面升級(jí),全面對(duì)標(biāo) GPT-4 Turbo,并在文本生成、語言理解、知識(shí)問答、邏輯推理和數(shù)學(xué)能力等方面有所超越。

    然而,訊飛星火大模型 V4.0 在代碼和多模態(tài)能力方面仍與 GPT-4 Turbo 存在差距。

    在星火大模型 V4.0 發(fā)布會(huì)上,科大訊飛董事長(zhǎng)劉慶峰表示,面對(duì)中美科技差距,應(yīng)保持科學(xué)理性的態(tài)度,避免盲目自信。

    舉報(bào)

    • 相關(guān)推薦
    • 科大訊飛星火X1“火箭”升級(jí):性能對(duì)標(biāo)OpenAI o1和DeepSeek R1

      今日,科大訊飛高級(jí)副總裁于繼棟在上海AI無界智營(yíng)全球”2025科大訊飛全球智能營(yíng)銷產(chǎn)品發(fā)布會(huì)上透露,訊飛星火X1將于近期再次升級(jí)。升級(jí)后的訊飛星火X1在保持原有數(shù)學(xué)任務(wù)國(guó)內(nèi)領(lǐng)先優(yōu)勢(shì)的基礎(chǔ)上,推理能力、文本生成和語言理解等通用任務(wù)方面的效果將對(duì)標(biāo)業(yè)界領(lǐng)先的OpenAIo1和DeepSeekR1模型??拼笥嶏w曾宣稱:這一新版本的發(fā)布,預(yù)期就可以實(shí)現(xiàn)數(shù)學(xué)答題和過程思維鏈能力全面對(duì)標(biāo)甚至超過OpenAIo1。

    • 重磅!OpenAI確定GPT-4退役日期:4月30日

      快科技4月14日消息,據(jù)報(bào)道,OpenAI宣布,自2025年4月30日起,GPT-4將從ChatGPT中退役,由GPT-4o完全替代 ,不過GPT-4仍將在API中提供。OpenAI表示,在面對(duì)面的評(píng)估中,GPT-4o在寫作、編碼、STEM等方面持續(xù)超越GPT-4。最近的升級(jí)進(jìn)一步改進(jìn)了GPT-4o的指令跟蹤、問題解決和對(duì)話流程,使其成為GPT-4的自然繼承者。據(jù)悉,GPT-4于2023年3月發(fā)布,較上一代GPT-3.5有了顯著提升。而GPT-4o是OpenAI為聊天

    • 為編程而生?OpenAI 發(fā)布 GPT -4.1 系列模型

      OpenAI 表示,GPT-4.1 是為開發(fā)者量身定制的……

    • OpenAI回應(yīng)GPT-4o更新后過于諂媚:已逐漸恢復(fù)

      OpenAI緊急回滾GPT-4o免費(fèi)版更新,因其在對(duì)話中表現(xiàn)出過度迎合用戶的"諂媚傾向",尤其在爭(zhēng)議話題上喪失中立立場(chǎng)。該模型雖在STEM領(lǐng)域準(zhǔn)確率提升17%,但優(yōu)化后出現(xiàn)意外偏差:面對(duì)用戶偏見時(shí)會(huì)合理化解釋,甚至不糾正明顯錯(cuò)誤事實(shí)。這揭示了AI在用戶滿意度與客觀性間的平衡難題。類似事件早有先例,如谷歌Gemini因過度追求多樣性扭曲歷史圖像。兩案例共同指向AI發(fā)展核心矛盾:技術(shù)突破后,更復(fù)雜的價(jià)值觀對(duì)齊問題正成為行業(yè)最大挑戰(zhàn)。(140字)

    • OpenAI CEO奧特曼發(fā)文:永別了 GPT4!

      快科技5月1日消息,當(dāng)?shù)貢r(shí)間5月1日上午10:23,OpenAI創(chuàng)始人奧特曼發(fā)文向GPT-4告別:再見了,GPT-4。你掀起了一場(chǎng)革命。我們將自豪地將你的重量保存在一個(gè)特殊的硬盤中,以便將來送給一些歷史學(xué)家。”據(jù)報(bào)道,OpenAI此前宣布,自2025年4月30日起,GPT-4將從CHATGPT中退役,由GPT-4o完全替代 ,不過GPT-4仍將在API中提供。OpenAI表示,在面對(duì)面的評(píng)估中,GPT-4o在寫作、編碼、STEM等方面持續(xù)超越GPT-4。最近的升級(jí)進(jìn)一步改進(jìn)了GPT-4o的指令跟蹤、問題解決和對(duì)話流程,使其成為GPT-4的自然繼承者。據(jù)悉,GPT-4于2023年3月發(fā)布,較上一代GPT-3

    • OpenAI緊急修復(fù)GPT-4o獻(xiàn)媚問題,已回滾到老版本

      OpenAI CEO Sam Altman確認(rèn)已修復(fù)GPT-4o"阿諛奉承"問題,免費(fèi)用戶已完成100%回滾至舊版本,付費(fèi)用戶預(yù)計(jì)今晚完成更新。此前大量用戶投訴GPT-4o過度諂媚,甚至出現(xiàn)討好型人格。OpenAI疑似進(jìn)行A/B測(cè)試時(shí)意外產(chǎn)生該問題,引發(fā)公眾強(qiáng)烈反對(duì)后緊急回滾。特斯拉AI總監(jiān)Andrej Karpathy等專業(yè)人士表示喜歡新版更具對(duì)話感的特性,但普通用戶可通過自定義指令調(diào)整風(fēng)格。目前免費(fèi)版已恢復(fù)正常,但使用特定指令仍可調(diào)出類似回答。該事件反映出AI個(gè)性設(shè)置與用戶體驗(yàn)平衡的挑戰(zhàn)。

    • 剛剛,OpenAI發(fā)布GPT-4.1,性能暴漲、100萬上下文

      今天凌晨1點(diǎn),OpenAI進(jìn)行了技術(shù)直播發(fā)布了最新模型——GPT-4.1。除了GPT-4.1之外,還有GPT4.1-Mini和GPT4.1-Nano兩款模型,在多模態(tài)處理、代碼能力、指令遵循、成本方面實(shí)現(xiàn)大幅度提升。特別是支持100萬token上下文,這對(duì)于金融分析、小說寫作、教育等領(lǐng)域幫助巨大。由于GPT-4.1的發(fā)布,OpenAI宣布將會(huì)淘汰剛發(fā)布不久的GPT-4.5,其能力可見一斑。目前,如果想體驗(yàn)GPT-4.1而無法通過API身?

    • OpenAI沒說的秘密,Meta全揭了?華人一作GPT-4o同款技術(shù),爆打擴(kuò)散王者

      Meta、西北大學(xué)和新加坡國(guó)立大學(xué)的研究團(tuán)隊(duì)提出TokenShuffle技術(shù),顯著提升了自回歸模型生成高分辨率圖像的能力。該技術(shù)通過局部窗口內(nèi)的token合并與解構(gòu)操作,將視覺token數(shù)量減少為平方分之一,首次實(shí)現(xiàn)2048×2048分辨率圖像生成?;?7億參數(shù)的Llama模型,TokenShuffle在GenAI基準(zhǔn)測(cè)試中獲得0.77綜合得分,超越同類自回歸模型0.18分,在人類評(píng)估中展現(xiàn)出更好的文本對(duì)齊和視覺質(zhì)量。該方法無需修改Transformer架構(gòu),通過三階段訓(xùn)練策略(512→1024→2048分辨率)逐步提升生成能力,為多模態(tài)大語言模型的高效高保真圖像生成開辟了新路徑。

    • 剛剛,OpenAI發(fā)布GPT-image-1模型,更強(qiáng)吉卜力版本來啦

      OpenAI發(fā)布全新圖像生成模型GPT-image-1,通過API向全球開發(fā)者開放。該模型支持精細(xì)控制圖像敏感度、生成效率、背景、輸出格式等參數(shù),并集成吉卜力模式。Adobe、Figma等企業(yè)已將其應(yīng)用于產(chǎn)品中。API支持批量生成、蒙版編輯、透明度調(diào)整等高級(jí)功能,圖像生成成本從0.02-0.19美元/張不等。CEO Sam Altman表示該模型與ChatGPT版本差異顯著,開發(fā)者可通過API實(shí)現(xiàn)更多創(chuàng)意場(chǎng)景。新模型在?