无码在线播放二区|久久亚洲精品国产精品|无码视频在线观看一区二区|在线观看国产日韩亚洲中

  • <menu id="yw4o4"></menu>
  • 
    <menu id="yw4o4"><em id="yw4o4"></em></menu>
  • 首頁 > 傳媒 > 關(guān)鍵詞  > 生成式人工智能最新資訊  > 正文

    聲網(wǎng)對話式AI解決方案上新 構(gòu)建實(shí)時(shí)多模態(tài)AI交互

    2024-09-09 11:47 · 稿源: 站長之家用戶

    生成式人工智能領(lǐng)域,大模型多模態(tài)交互能力的升級正掀起一股新的 AI 浪潮,在 RTC 能力的加持下,人與 AI 的交互不再局限于文字,也可以通過語音通話進(jìn)行生動(dòng)、流暢的低延時(shí)交互,這也成為當(dāng)下國內(nèi)外大模型廠商新的發(fā)力點(diǎn)。

    今年5月,GPT-4o 的發(fā)布開創(chuàng)了AI 實(shí)時(shí)語音交互的先河。在此之前,一些傳統(tǒng)的大模型已經(jīng)具備語音交互的能力,但一般采用 WebSocket 方案,這一方案雖然應(yīng)用廣泛,但其傳輸架構(gòu)是基于 TCP 協(xié)議來構(gòu)建,延遲較高,在 STT-LLM-TTS 的三步驟中,一個(gè)來回的延遲就要2-3秒,在弱網(wǎng)等非理想網(wǎng)絡(luò)環(huán)境下,整體語音交互的延時(shí)更達(dá)到4秒+。在 GPT-4o 采用 RTC 方案后,展現(xiàn)出了自然、流暢的低延時(shí)語音交互體驗(yàn),也讓更多企業(yè)與開發(fā)者看到了在 AI 語音交互中 RTC 方案的更優(yōu)性,并積極與 RTC 廠商合作,升級 AI 語音交互的體驗(yàn)。

    聲網(wǎng)對話式AI解決方案?構(gòu)建實(shí)時(shí)多模態(tài)AI語音交互

    聲網(wǎng)作為全球?qū)崟r(shí)互動(dòng)云行業(yè)的開創(chuàng)者,在音視頻領(lǐng)域積累了深厚的技術(shù)優(yōu)勢與場景實(shí)踐,通過與客戶在 AIGC 場景的深度合作,探索出了一套實(shí)時(shí)多模態(tài)對話式 AI 解決方案,該方案以語音為核心,支持視頻擴(kuò)展,實(shí)現(xiàn)文本/音頻/圖像/視頻的組合輸入&輸出,通過豐富的功能構(gòu)建真實(shí)、自然的?AI?語音交互體驗(yàn)。

    例如對交互延遲進(jìn)行優(yōu)化,延遲可做到1s以內(nèi);支持?AI?降噪、背景人聲過濾,讓語音對話更純靜;支持隨時(shí)打斷與超擬人化人聲合成,讓對話更智能與逼真;同時(shí)還支持靈活可擴(kuò)展的?AI Agent?架構(gòu)等一系列功能,幫助開發(fā)者與企業(yè)快速構(gòu)建適配自己業(yè)務(wù)場景的?AI?實(shí)時(shí)語音對話服務(wù)。

    圖:聲網(wǎng)實(shí)時(shí)多模態(tài)對話式AI解決方案架構(gòu)圖

    1、延遲低于1s,極速響應(yīng):聲網(wǎng)實(shí)時(shí)多模態(tài)對話式AI解決方案可做到語音對話延遲低于1s。通過在客戶端進(jìn)行低延遲的音頻采集和播放、借助聲網(wǎng)自研的 SD-RTN? 實(shí)時(shí)傳輸網(wǎng)絡(luò)實(shí)現(xiàn)全球范圍的低延時(shí) RTC 傳輸,并進(jìn)一步通過更準(zhǔn)確低延遲的AI VAD、更快速的 LLM 推理首字耗時(shí)、低延遲流式 TTS、同機(jī)部署等一系列技術(shù)手段,保證對話的實(shí)時(shí)性與流暢性。

    2、智能打斷,貼近真實(shí)會(huì)話:在人類真實(shí)的語音對話中,打斷對方并提出新的疑問是非常常見的現(xiàn)象,而在 AIGC 場景,能否支持隨時(shí)打斷也成為衡量大模型智能化的重要指標(biāo)。聲網(wǎng)的方案也支持先進(jìn)的 AI 語音活動(dòng)檢測(AI VAD)技術(shù),可實(shí)現(xiàn)靈敏的自然語音打斷,模擬人類對話的自然流動(dòng),讓對話更加真實(shí)、自然。

    3、嘈雜環(huán)境下也能清晰對話:即使在嘈雜的環(huán)境中,聲網(wǎng)的解決方案也能保證清晰的語音交流。通過AI噪聲抑制、背景人聲過濾、音樂檢測/過濾等算法,確保人與 AI 的對話不受環(huán)境干擾,始終保持順暢。

    4、靈活可擴(kuò)展的AI Agent架構(gòu):AI Agent 作為大模型的應(yīng)用框架,其重要性不言而喻。對于開發(fā)者而言,往往會(huì)根據(jù)自身的喜好或者業(yè)務(wù)場景選擇不同的組件搭配 AI Agent。對此,聲網(wǎng)的解決方案采用了靈活可擴(kuò)展的 AI Agent架構(gòu),兼容市場主流的 ASR、LLM 和 TTS 技術(shù),并具備工作流編排能力,幫助開發(fā)者與企業(yè)根據(jù)特定需求定制和擴(kuò)展 AI 驅(qū)動(dòng)的實(shí)時(shí)互動(dòng)體驗(yàn)。

    5、超擬人化人聲合成:在一些傳統(tǒng)的AI語音對話中,AI角色機(jī)械式的聲音大大降低了對話的真實(shí)感。針對這一痛點(diǎn),聲網(wǎng)的解決方案超可實(shí)現(xiàn)超擬人真實(shí)音色,合成的聲音幾乎與真人無異,且支持私人定制音色,模擬喜怒哀樂等多種情緒表達(dá),提升用戶體驗(yàn),使互動(dòng)更加自然,還原真實(shí)體驗(yàn)感。

    6、支持?RTC?與?SIP?網(wǎng)關(guān)互通:AI電話客服是當(dāng)下 AIGC 應(yīng)用最廣泛的場景之一,具備呼叫中心坐席的特性,對此,聲網(wǎng)的解決方案也支持 RTC 與 SIP 網(wǎng)關(guān)互通,用戶可直接通過聲網(wǎng)的RTCSDK 直接呼叫企業(yè)客服中心坐席,有效的降低客服成本,提升客服效率。

    RTC能力加持下??AIGC應(yīng)用場景迎來爆發(fā)

    聲網(wǎng)在與客戶的合作中發(fā)現(xiàn),在RTC 的加持下,AIGC應(yīng)用場景迎來進(jìn)一步爆發(fā),AI智能助手、AI情感陪伴、AI口語老師、AI客服的 AI 交互體驗(yàn)進(jìn)一步升級,學(xué)生的學(xué)習(xí)效率更高,社交陪聊場景的娛樂性與沉浸感也進(jìn)一步增強(qiáng)。

    來自量子位智庫推出的 AI智能助手用戶數(shù)據(jù)報(bào)告顯示,截止8月國內(nèi)市場的 AI智能助手 App 已超過64款。在 AI情感陪伴領(lǐng)域也涌現(xiàn)了 Soul、星野、Wow等一系列人氣社交APP。

    以?AI情感陪伴為例,隨著多模態(tài)交互能力的升級,當(dāng)下 AI情感陪伴類產(chǎn)品正呈現(xiàn)出三個(gè)特征:

    1、語音/視覺交互:除了傳統(tǒng)的文本交互外,越來越多的 AI情感陪伴類 APP 也在加入語音通話的功能,讓 AI陪伴更具有真實(shí)感。同時(shí)在視覺交互方面,部分產(chǎn)品也支持了視頻通話功能,通過3D建模、擬真渲染等技術(shù)構(gòu)建逼真的數(shù)字人,讓人與 AI 的情感交互更加擬人化。

    2、情感計(jì)算:人與 AI 的一個(gè)核心區(qū)別就是人具備情感,為了讓 AI 的回答更加智能與真實(shí),許多 AI 陪伴產(chǎn)品開始加入情感計(jì)算的能力。通過語義識(shí)別、面部表情等信號檢測用戶的喜怒哀樂等情緒狀態(tài),并做出對應(yīng)的情感回應(yīng),實(shí)現(xiàn)更加人性化的交互體驗(yàn)。

    3、私人定制:標(biāo)準(zhǔn)化的人機(jī)交互千篇一律,個(gè)性化的定制才更有新意。具備個(gè)性化定制能力,提供自主創(chuàng)作和個(gè)性化選項(xiàng)已經(jīng)成為 AI陪伴類產(chǎn)品的新趨勢,例如定制原生IP角色、定制IP專屬畫風(fēng)和語音體系、定制專屬互動(dòng)話題等一系列功能。

    圖:電影《Her》里的AI助理被視為AI情感陪伴的啟蒙

    在?AI口語老師場景,聲網(wǎng)觀察發(fā)現(xiàn),1v1教學(xué)場景非常適用 AI口語老師,從真人教學(xué)變成自學(xué)模式,例如正價(jià)課1v1與 Demo 課1v1教學(xué),AI數(shù)字人老師將代替真人,1v1AI 口語老師將成為未來語言學(xué)習(xí)機(jī)構(gòu)必備的應(yīng)用,AI 數(shù)字人老師可能用于大齡學(xué)生與成人,卡通 IP 可用于低幼齡的課程。同時(shí)在職業(yè)教育賽道,已經(jīng)有不少教育機(jī)構(gòu)在大班課場景利用 AI數(shù)字人老師教學(xué)。

    同時(shí),在游戲社交、AI分身、實(shí)時(shí)語音翻譯等場景,實(shí)時(shí)AI語音也大有可為。例如,在狼人殺、誰是臥底等場景,AI NPC 角色雖然已經(jīng)在應(yīng)用,但是 AI 的痕跡還是較為明顯。在大模型具備實(shí)時(shí)語音交互能力后,誰是臥底中的 AI 角色可以做到快速的推理并發(fā)言,再搭配語音仿真技術(shù),有望做到 AI 角色的以假亂真。

    聲網(wǎng)的實(shí)時(shí)多模態(tài)對話式AI解決方案目前已經(jīng)上線,如您想進(jìn)一步體驗(yàn)我們的 Demo或者接入該方案,可在聲網(wǎng)公眾號找到這篇文章,掃描文章底部的二維碼聯(lián)系我們。

    推廣

    特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))均為站長傳媒平臺(tái)用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù),對本頁面內(nèi)容所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任,相關(guān)信息僅供參考。站長之家將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。任何單位或個(gè)人認(rèn)為本頁面內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),可及時(shí)向站長之家提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明(點(diǎn)擊查看反饋聯(lián)系地址)。本網(wǎng)站在收到上述法律文件后,將會(huì)依法依規(guī)核實(shí)信息,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

    • 相關(guān)推薦
    • 業(yè)界唯一!百度網(wǎng)盤上線多模態(tài)AI筆記 效率提升10倍

      快科技5月2日消息,過往,用戶在通過視頻學(xué)習(xí)并記錄筆記時(shí),總免不了要不停切換平臺(tái)軟件,暫停、截屏、記錄、插圖、批注、切換返回視頻過程繁瑣而低效。為了應(yīng)對這種情況,百度網(wǎng)盤和百度文庫聯(lián)合研發(fā)上線了AI筆記”,支持全自動(dòng)學(xué)習(xí)、半自動(dòng)學(xué)習(xí)、輔助學(xué)習(xí)三種模式。如今只要在網(wǎng)盤里面任意打開一個(gè)學(xué)習(xí)視頻,在右側(cè)就能看到AI筆記”功能,用戶可以自主輸入內(nèi)容,也可以讓其直接生成圖文并茂、結(jié)構(gòu)清晰的筆記。而且每個(gè)重要知識(shí)點(diǎn)旁會(huì)有時(shí)間戳,點(diǎn)擊時(shí)間戳即可跳轉(zhuǎn)到視頻中對應(yīng)位置,實(shí)現(xiàn)視頻和筆記內(nèi)容的順滑關(guān)聯(lián)。此外AI筆記”還可以幫

    • UniToken:多模態(tài)AI的“全能選手”,一次編碼搞定圖文理解與圖像生成

      復(fù)旦大學(xué)與美團(tuán)研究者提出UniToken框架,首次在統(tǒng)一模型中實(shí)現(xiàn)圖文理解與生成任務(wù)的"雙優(yōu)表現(xiàn)"。該方案融合連續(xù)和離散視覺編碼,有效解決了傳統(tǒng)多模態(tài)建模中的"任務(wù)干擾"和"表示割裂"問題。通過三階段訓(xùn)練策略(視覺語義對齊、多任務(wù)聯(lián)合訓(xùn)練、指令強(qiáng)化微調(diào)),UniToken在多個(gè)基準(zhǔn)測試中性能超越專用模型。其創(chuàng)新性體現(xiàn)在:1)統(tǒng)一的雙邊視覺編碼

    • 多模態(tài)和Agent成為大廠AI的新賽 點(diǎn)

      這是《窄播Weekly》的第52期,本期我們關(guān)注的商業(yè)動(dòng)態(tài)是:當(dāng)大廠的AI競爭策略開始傾斜向應(yīng)用場景,多模態(tài)能力和代理執(zhí)行成為兩個(gè)焦點(diǎn)。大模型落地C端場景的核心,就是讓大模型的能力越來越接近人。沿著這個(gè)主旋律,可以劃分出兩個(gè)進(jìn)化方向:一個(gè)是持續(xù)降低用戶與大模型進(jìn)行有效溝通的難度;另一個(gè)則是讓大模型具備執(zhí)行更復(fù)雜任務(wù)的能力。前者的實(shí)現(xiàn),需要給到大模型多

    • 多模態(tài)和Agent成為大廠AI的新賽點(diǎn)

      本期《窄播Weekly》聚焦AI大廠競爭策略向應(yīng)用場景傾斜的趨勢,重點(diǎn)分析了多模態(tài)能力和代理執(zhí)行兩大發(fā)展方向。文章指出,大模型落地的核心在于讓人機(jī)交互更自然,具體表現(xiàn)為:1)通過多模態(tài)技術(shù)降低用戶使用門檻,如阿里夸克新推出的"拍照問夸克"功能;2)通過代理執(zhí)行提升復(fù)雜任務(wù)處理能力,如字節(jié)、百度等推出的通用Agent產(chǎn)品。國內(nèi)外廠商路徑差異明顯:國?

    • 可靈AI發(fā)布全新2.0模型:上線多模態(tài)視頻編輯功能

      快科技4月16日消息,據(jù)報(bào)道,可靈AI在北京舉行靈感成真”2.0模型發(fā)布會(huì),正式發(fā)布可靈2.0視頻生成模型及可圖2.0圖像生成模型。據(jù)介紹,可靈2.0模型在動(dòng)態(tài)質(zhì)量、語義響應(yīng)、畫面美學(xué)等維度保持領(lǐng)先;可圖2.0模型在指令遵循、電影質(zhì)感及藝術(shù)風(fēng)格表現(xiàn)等方面顯著提升。3月27日,全球AI基準(zhǔn)測試機(jī)構(gòu)Artificial Analysis發(fā)布了最新的全球視頻生成大模型榜單,快手可靈1.6pro(高品質(zhì)模

    • AI日報(bào):國內(nèi)首個(gè)多模態(tài)AI程序員上崗;字節(jié)啟動(dòng)Top Seed計(jì)劃招募AI人才;DeepSeek R1T Chimera上線OpenRouter

      【AI日報(bào)】今日AI領(lǐng)域重要?jiǎng)討B(tài):1.百度發(fā)布文心快碼3.5及多模態(tài)AI程序員"文心快碼Comate Zulu",提升開發(fā)效率;2.字節(jié)跳動(dòng)啟動(dòng)"Top Seed"計(jì)劃,招募30名AI博士人才;3.DeepSeek開源R1T Chimera模型上線OpenRouter平臺(tái);4.阿里AI工程師余亮獲"全國勞動(dòng)模范"稱號;5.開源圖像編輯工具Step1X-Edit登陸Hugging Face,性能媲美GPT-4o;6.谷歌被曝每月向三星支付巨額資金預(yù)裝Gemini應(yīng)用

    • 語聊視界加持 三星Galaxy S25系列開啟“可對話”的AI交互

      在智能手機(jī)不斷進(jìn)化的今天,用戶對語音助手的期待也在悄然變化——不再只是“聽懂指令”是真正成為能夠理解場景、感知情緒的“溝通伙伴”。三星GalaxyS25系列全新上線的語聊視界功能,正是對這一趨勢的深度回應(yīng)。三星GalaxyS25系列的語聊視界,正讓這一切變得觸手可及。

    • 數(shù)云AI解決方案劇透,消費(fèi)者數(shù)智化營銷有了新解法

      數(shù)云X AI=?構(gòu)建全渠道消費(fèi)者數(shù)字化運(yùn)營“智能”引擎。當(dāng)Deepseek大模型掀起新一輪AI討論熱潮,行業(yè)對AI應(yīng)用的關(guān)注被推向了新高度。這次的不同在于,大家對AI的討論不再只是停留在技術(shù)解構(gòu)層面,而是具體到實(shí)際業(yè)務(wù)場景講起了落地應(yīng)用。Gartner預(yù)測,到 2026 年30%的企業(yè)將依賴AI智能體實(shí)現(xiàn)自動(dòng)化決策閉環(huán),能否將行業(yè)知識(shí)深度融入企業(yè)級AI應(yīng)用中,將成為企業(yè)構(gòu)建差異化競?

    • 紫東太初多模態(tài)RAG全新發(fā)布:端到端問答準(zhǔn)確率提升33%

      在產(chǎn)業(yè)智能化進(jìn)程中,如何高效融合企業(yè)專有知識(shí)資產(chǎn),構(gòu)建領(lǐng)域?qū)僬J(rèn)知引擎,是企業(yè)邁向智能決策與高效運(yùn)營的關(guān)鍵。然而,傳統(tǒng)檢索增強(qiáng)生成(RAG)技術(shù)受限于語言單模態(tài)處理能力,僅能實(shí)現(xiàn)文本知識(shí)庫與文本查詢之間的淺層理解,難以滿足復(fù)雜業(yè)務(wù)場景的需求,在實(shí)際應(yīng)用中暴露出兩大缺陷:信息表征缺失:忽略知識(shí)庫中多模態(tài)富文檔的視覺語義信息,如版面結(jié)構(gòu)、圖表關(guān)?

    • 1000萬上下文!新開源多模態(tài)大模型,單個(gè)GPU就能運(yùn)行

      今年2月初,谷歌發(fā)布的Gemini2.0Pro支持200萬上下文,震驚了整個(gè)大模型領(lǐng)域。僅過了2個(gè)月,Meta最新開源的Llama4Scout就將上下文擴(kuò)展至1000萬,整整提升了5倍開啟千萬級時(shí)代。根據(jù)實(shí)驗(yàn)數(shù)據(jù)顯示,Llama4Behemoth在MMLUPro、GPQA、MATH-500等測試的數(shù)據(jù)比GPT-4.5、ClaudeSonnet3.7、Gemini2.0Pro更好。