??????AI應(yīng)用
百度將發(fā)布AI互動(dòng)式新搜索
百度世界2023即將發(fā)布AI互動(dòng)式新搜索,具備聽、會(huì)、看的能力,通過大模型和多輪交互提供個(gè)性化搜索體驗(yàn)。
【AiBase提要】
?? 百度新搜索整合語義檢索技術(shù)和大語言模型,具備聽、會(huì)、看能力。
?? 百度建設(shè)AI新生態(tài),吸引2萬家開發(fā)者入駐插件平臺(tái),擴(kuò)展大模型應(yīng)用生態(tài)。
?? 百度營(yíng)銷發(fā)布AI商業(yè)引擎,以生成式AI技術(shù)重構(gòu)商業(yè)產(chǎn)品和解決方案,促進(jìn)廣泛合作。
網(wǎng)易有道推出全球首個(gè)虛擬人口語教練Hi Echo
有道推出虛擬人口語私教Hi Echo,提供一對(duì)一專屬教練,支持多輪對(duì)話和口語練習(xí),具備純正美式口音。
【AiBase提要:】
?? Hi Echo是虛擬人口語私教,提供個(gè)性化口語練習(xí),支持多輪對(duì)話和評(píng)分。
??? 學(xué)習(xí)者可以在不同對(duì)話場(chǎng)景和話題中練習(xí),覆蓋多個(gè)話題,持續(xù)更新。
???教練具備地道美式口音,幫助學(xué)習(xí)者輕松練習(xí)口語。
Character.AI推出AI群聊功能
Character.AI是一家由前Google AI研究人員創(chuàng)建的初創(chuàng)公司,現(xiàn)在為其訂閱者提供新的AI群聊功能,讓用戶可以與多個(gè)人工智能角色實(shí)時(shí)交談。
【AiBase提要】
?? Character.AI是一由前Google AI研究人員創(chuàng)建的初創(chuàng)公司,受a16z支持,為訂閱者提供新的AI群聊功能。
??? 用戶可以創(chuàng)建包含多個(gè)AI角色的群聊,與朋友建立社交關(guān)系、分享想法,或進(jìn)行實(shí)時(shí)協(xié)作,擴(kuò)展了群聊體驗(yàn)。
?? 這項(xiàng)功能首先向C.ai+訂閱者提供,以獲取反饋和改進(jìn),隨后將對(duì)公眾開放,不是免費(fèi)的服務(wù)。
百度百科推出百科AI詞條編輯助手
百度百科推出基于大模型技術(shù)的AI詞條編輯助手,提高編輯效率和準(zhǔn)確性,同時(shí)計(jì)劃上線百科BOT-『百科同學(xué)』,以實(shí)時(shí)對(duì)話方式解答用戶知識(shí)問題。
【AiBase提要:】
1. 百度百科發(fā)布了百科AI詞條編輯助手,利用前沿大模型技術(shù),自動(dòng)生成精煉摘要,提升詞條編輯效率和準(zhǔn)確性,特別適用于長(zhǎng)篇新聞報(bào)道。
2. 百度即將推出百科BOT-『百科同學(xué)』,用于實(shí)時(shí)對(duì)話,快速解答歷史知識(shí)類問題,支持趣味問答和作畫等功能,以加速知識(shí)的普及。
3. 這一舉措將有助于更多人通過AI輔助獲得和分享知識(shí),促進(jìn)知識(shí)的普及和傳播。
中國移動(dòng)推出“86NEXT”AI產(chǎn)品,將首次應(yīng)用于10086
中國移動(dòng)在全球合作伙伴大會(huì)上發(fā)布了名為“86NEXT”的創(chuàng)新AI技術(shù)產(chǎn)品,以大模型為代表,將首次在10086中應(yīng)用,提升用戶體驗(yàn)與滿意度。
【AiBase提要】:
?? 中國移動(dòng)發(fā)布“86NEXT” AI產(chǎn)品,采用大模型技術(shù),旨在提供更深入和人性化的交流體驗(yàn)。
?? 該產(chǎn)品可與5G視頻客服技術(shù)相結(jié)合,為用戶帶來豐富多彩的交互體驗(yàn)。
?? 除了在用戶體驗(yàn)上的提升,它還能應(yīng)用于各類服務(wù)形態(tài),為客戶提供綜合問題解決方案,提高客服人員的工作效率。
微軟Viva平臺(tái)新增AI驅(qū)動(dòng)的員工技能分析功能
微軟將在Microsoft Viva員工體驗(yàn)平臺(tái)上推出新的人工智能功能「Skills」,旨在為雇主提供員工技能的全面洞察。
【AiBase提要】:
?? 新功能「Skills」旨在為雇主提供員工技能的全面洞察。
?? 利用微軟圖譜和LinkedIn技能圖譜的綜合力量,技能功能將智能地推斷員工的技能概況。
?? 預(yù)計(jì)「技能」功能將在今年年底進(jìn)行私人預(yù)覽測(cè)試,并成為Microsoft Viva套件的一部分。
在線支付服務(wù)商Klarna推出AI圖像搜索工具
瑞典在線支付和零售服務(wù)提供商Klarna推出AI圖像搜索工具“Shopping Lens”,用戶可通過拍照迅速找到購物商品,還推出多項(xiàng)增強(qiáng)購物體驗(yàn)的功能。
【AiBase提要:】
?? Klarna發(fā)布“Shopping Lens” AI圖像搜索工具,允許用戶拍照尋找商品。
?? “Shoppable Video”擴(kuò)展至歐洲市場(chǎng),提供個(gè)性化視頻推薦。
?? 推出實(shí)體店內(nèi)產(chǎn)品掃描、新的返現(xiàn)計(jì)劃、單一登錄解決方案等功能,提升用戶購物體驗(yàn)。
??????AI新鮮事
OpenAI計(jì)劃重磅更新 應(yīng)用程序開發(fā)成本可降低20倍
OpenAI計(jì)劃進(jìn)行重磅更新,通過增加內(nèi)存存儲(chǔ)功能,將應(yīng)用程序開發(fā)成本降低約20倍,幫助開發(fā)人員構(gòu)建專屬ChatGPT,還將推出新的視覺開發(fā)工具。
【AiBase提要】:
- ?? OpenAI計(jì)劃推出重磅更新,以更低價(jià)格、更高效的方式幫助構(gòu)建ChatGPT,將應(yīng)用程序成本降低20倍左右。
- ?? 這一更新解決了合作伙伴在開發(fā)AI軟件時(shí)的高昂ChatGPT模型成本問題。
- ?? OpenAI還將推出視覺開發(fā)工具,適用于醫(yī)療、金融、電商、娛樂等領(lǐng)域。
圖靈獎(jiǎng)得主Hinton加入機(jī)器人初創(chuàng)公司Vayu Robotics獲9000萬美元投資
深度學(xué)習(xí)先驅(qū)Geoffrey Hinton加入初創(chuàng)公司Vayu Robotics,強(qiáng)調(diào)AI技術(shù)可控和低道德風(fēng)險(xiǎn),獲得9000萬美元投資。
【AiBase提要:】
?? Geoffrey Hinton重返機(jī)器人領(lǐng)域,成為Vayu Robotics顧問。
?? 初創(chuàng)公司Vayu Robotics獲得9000萬美元投資,強(qiáng)調(diào)AI技術(shù)可控。
?? 公司的CTO是Hinton的門徒,開發(fā)小型送貨機(jī)器人,注重AI視覺技術(shù)。
微軟加強(qiáng)Bing AI圖像生成內(nèi)容限制
微軟削減了Bing的DALL-E3AI圖像生成功能,以加強(qiáng)對(duì)潛在問題關(guān)鍵詞和內(nèi)容的控制。
【AiBase提要:】
?? 微軟削減了Bing的DALL-E3AI圖像生成功能,以應(yīng)對(duì)用戶生成問題圖像的問題。
?? 用戶曾經(jīng)能夠輕松繞過關(guān)鍵詞限制,生成具有問題內(nèi)容的圖像。
??? 微軟加強(qiáng)了對(duì)潛在問題關(guān)鍵詞和內(nèi)容的控制,但仍存在不完善之處。
谷歌內(nèi)部員工質(zhì)疑AI聊天機(jī)器人Bard的有效性和價(jià)值
谷歌內(nèi)部員工對(duì)AI聊天機(jī)器人Bard的效用產(chǎn)生疑慮,涉及投入資源是否合理。這些質(zhì)疑對(duì)于谷歌而言,正在成為一項(xiàng)嚴(yán)峻的挑戰(zhàn),因?yàn)樗谒阉黝I(lǐng)域的主導(dǎo)地位受到了一系列競(jìng)爭(zhēng)對(duì)手的挑戰(zhàn)。
【AiBase提要:】
1?? 內(nèi)部員工開始懷疑Bard的有效性和功能,引發(fā)了資源投入的疑慮。
2?? 谷歌不斷為Bard增加新功能以應(yīng)對(duì)競(jìng)爭(zhēng),但也面臨虛假信息和危險(xiǎn)建議的挑戰(zhàn)。
3?? 論壇討論還涉及到道德和社會(huì)責(zé)任,引發(fā)廣泛關(guān)注。
研究人員揭示GPT-4安全漏洞,使用少見語言可繞過限制
布朗大學(xué)的研究人員發(fā)現(xiàn)OpenAI的GPT-4存在安全漏洞,可以通過使用少見語言如祖魯語和蓋爾語繞過其限制性設(shè)置。在處理非英語語言的限制性提示時(shí),他們?nèi)〉昧梭@人的79%成功率,而僅使用英語的成功率不到1%。
【AiBase提要】:
1. 研究人員揭示OpenAI的GPT-4存在安全漏洞,無法有效處理非常見訓(xùn)練數(shù)據(jù)中的語言,尤其在處理非英語語言時(shí)成功率高。
2. 他們通過將不安全的提示翻譯成低資源的自然語言,如祖魯語,成功繞過了GPT-4的安全機(jī)制,引發(fā)有害回應(yīng)。
3. 這項(xiàng)研究突顯了對(duì)非英語語言的安全性研究的必要性,同時(shí)也引發(fā)了關(guān)于語言不平等估值和跨語言漏洞的擔(dān)憂。
中興通訊將發(fā)布支持大模型訓(xùn)練的最新AI服務(wù)器
中興通訊計(jì)劃推出新一代智算中心基礎(chǔ)設(shè)施產(chǎn)品,包括高性能AI服務(wù)器和數(shù)據(jù)處理器,以支持大模型訓(xùn)練和推理。
【AiBase提要】
?? 中興通訊致力于滿足各類AI應(yīng)用場(chǎng)景的需求。
?? 他們已經(jīng)發(fā)布面向中小型模型的G5系列服務(wù)器。
?? 中興通訊計(jì)劃在今年內(nèi)發(fā)布支持大模型訓(xùn)練的最新AI服務(wù)器。
????????大模型動(dòng)態(tài)
OPPO推出基于AndesGPT大模型的小布1.0公測(cè)版
OPPO宣布啟動(dòng)AndesGPT大模型的新小布1.0公測(cè),通過4位量化技術(shù),在不降低精度的情況下實(shí)現(xiàn)性能優(yōu)化,并將在ColorOS14發(fā)布會(huì)上公布更多相關(guān)信息。
【AiBase提要:】
?? OPPO推出小布1.0公測(cè),基于AndesGPT大模型,通過4位量化技術(shù)提高性能。
?? AndesGPT大模型是OPPO的生成式大語言模型,在知識(shí)與百科能力測(cè)試中表現(xiàn)出色。
?? 用戶可以報(bào)名參與小布1.0公測(cè),更多信息將在ColorOS14發(fā)布會(huì)上披露。
智源研究院開源中英雙語大模型悟道·天鷹340億Aquila2-34B
智源研究院發(fā)布了悟道·天鷹340億(Aquila2-34B)模型,在推理、泛化、代碼生成等方面表現(xiàn)卓越,同時(shí)還提供開源項(xiàng)目,推動(dòng)大模型研究的協(xié)同創(chuàng)新。
【AiBase提要:】
悟道·天鷹340億(Aquila2-34B)模型在綜合能力方面超越其他開源基座模型,領(lǐng)先于同級(jí)別的對(duì)話模型。
智源研究院還發(fā)布了多個(gè)開源項(xiàng)目,包括 FlagScale 高效并行訓(xùn)練框架和 FlagAttention 高性能 Attention 算子集,以進(jìn)一步推動(dòng)大模型研究的發(fā)展。
該模型在推理能力和處理長(zhǎng)文本任務(wù)方面表現(xiàn)出色,提供了強(qiáng)大的自然語言處理能力。
Aquila2模型全系開源地址:
https://github.com/FlagAI-Open/Aquila2
https://model.baai.ac.cn/
https://huggingface.co/BAAI
Kandinsky1:3.3億參數(shù)強(qiáng)大模型,文本生成逼真圖像
Kandinsky1是一款強(qiáng)大的文本到圖像生成模型,擁有3.3億參數(shù),通過潛在擴(kuò)散技術(shù)實(shí)現(xiàn)高質(zhì)量圖像生成,在COCO-30K驗(yàn)證數(shù)據(jù)集上獲得8.03的FID分?jǐn)?shù)。
【AiBase提要:】
?? Kandinsky1擁有3.3億參數(shù),表現(xiàn)卓越,通過潛在擴(kuò)散技術(shù)實(shí)現(xiàn)高質(zhì)量文本到圖像生成。
??? 基于擴(kuò)散的模型標(biāo)志著文本到圖像生成的演進(jìn),超越了傳統(tǒng)GANs的性能。
?? Kandinsky在COCO-30K數(shù)據(jù)集上取得8.03的FID分?jǐn)?shù),與最先進(jìn)的文本到圖像生成模型競(jìng)爭(zhēng)激烈。
?????????聚焦開發(fā)者
谷歌人機(jī)驗(yàn)證已經(jīng)攔不住AI了
蘋果AI/ML團(tuán)隊(duì)與哥倫比亞大學(xué)合作研發(fā)的多模態(tài)大模型“雪貂”(Ferret)成功突破了谷歌人機(jī)驗(yàn)證碼,可準(zhǔn)確識(shí)別交通信號(hào)燈位置,性能媲美GPT-4V。
【AiBase提要】:
1. Ferret是由蘋果AI/ML團(tuán)隊(duì)與哥倫比亞大學(xué)合作研發(fā)的多模態(tài)大模型,在“看說答”任務(wù)中表現(xiàn)出色,準(zhǔn)確識(shí)別交通信號(hào)燈。
2. Ferret創(chuàng)新之處在于將引用和定位的空間理解能力緊密結(jié)合,同時(shí)理解語義和找到目標(biāo)。
3. 這一模型采用混合區(qū)域表示方法,結(jié)合離散坐標(biāo)和連續(xù)特征,在多任務(wù)評(píng)估中表現(xiàn)出色,為圖像理解和多模態(tài)任務(wù)提供新的方向。
項(xiàng)目地址:https://github.com/apple/ml-ferret
論文地址:https://arxiv.org/pdf/2310.07704.pdf
Docker發(fā)布全新AI堆棧
Docker在Dockercon23大會(huì)上推出全新Docker GenAI堆棧,使生成式AI應(yīng)用程序的開發(fā)變得更加容易,降低容器配置復(fù)雜性,提供免費(fèi)的部署和商業(yè)支持選項(xiàng),推動(dòng)AI技術(shù)的普及和發(fā)展。
AiBase提要:
?? Docker發(fā)布全新Docker GenAI堆棧,推動(dòng)AI應(yīng)用程序的開發(fā)革命。
?? Docker GenAI堆棧簡(jiǎn)化生成式AI應(yīng)用程序的開發(fā),整合了Neo4j圖形數(shù)據(jù)庫和LangChain模型鏈技術(shù)。
?? Docker GenAI堆棧是免費(fèi)提供的,為開發(fā)人員提供本地運(yùn)行選項(xiàng),提高開發(fā)人員的體驗(yàn)。
LLM-Shearing大模型剪枝法:用5%的成本拿下SOTA
陳丹琦團(tuán)隊(duì)開發(fā)了LLM-Shearing大模型剪枝法,可將大型預(yù)訓(xùn)練模型剪枝至低成本,同時(shí)保持高性能水平,比重新預(yù)訓(xùn)練更經(jīng)濟(jì)。
【AiBase提要:】
1. LLM-Shearing是一種大模型剪枝方法,將預(yù)訓(xùn)練模型剪枝至僅需3%的計(jì)算量和5%的成本,同時(shí)保持高性能。
2. 剪枝方法將模型剪枝看作一種約束優(yōu)化問題,同時(shí)學(xué)習(xí)剪枝掩碼矩陣以最大化性能為目標(biāo)。
3. 這項(xiàng)研究提供了一種高效的方式,可用于將剪枝后的模型繼續(xù)預(yù)訓(xùn)練,最終超越從頭開始預(yù)訓(xùn)練的模型。
論文地址:
https://arxiv.org/abs/2310.06694
Hugging Face:
https://huggingface.co/princeton-nlp
項(xiàng)目主頁:
https://xiamengzhou.github.io/sheared-llama/
Replit將GhostWriter融入核心平臺(tái) 全面開源AI開發(fā)工具
Replit宣布將GhostWriter AI代碼補(bǔ)全工具融入其核心平臺(tái),全面開源,使所有用戶能夠享受人工智能增強(qiáng)的編程體驗(yàn)。
【AiBase提要:】
?? Replit整合GhostWriter,向所有用戶提供AI代碼補(bǔ)全工具。
?? 公布開源大語言模型 replit-code-v1.5-3b,旨在賦能全球開發(fā)者。
?? Replit使用自家構(gòu)建的開源技術(shù),包括更新版本的大語言模型,支持多種編程語言,并在強(qiáng)大硬件上訓(xùn)練。
革命性視頻合成工具M(jìn)AGVIT-v2將視覺內(nèi)容轉(zhuǎn)化為大模型的標(biāo)記
卡內(nèi)基梅隆大學(xué)、Google研究和喬治亞理工學(xué)院聯(lián)合推出的MAGVIT-v2視頻標(biāo)記工具,將圖像和視頻轉(zhuǎn)化為大型語言模型可理解的標(biāo)記,為視覺生成任務(wù)帶來重大突破。
項(xiàng)目地址:https://magvit.cs.cmu.edu/
【AiBase提要】:
1. MAGVIT-v2是一項(xiàng)視頻標(biāo)記工具,由卡內(nèi)基梅隆大學(xué)、Google研究和喬治亞理工學(xué)院聯(lián)合開發(fā),能將圖像和視頻輸入轉(zhuǎn)化為大型語言模型可識(shí)別的標(biāo)記。
2. 這一革命性工具的獨(dú)特算法使開發(fā)者能夠?qū)崿F(xiàn)各種令人驚嘆的應(yīng)用,從全景視頻到智能去除和圖像轉(zhuǎn)動(dòng)動(dòng)畫。
3. MAGVIT-v2在視覺生成任務(wù)中明顯超越傳統(tǒng)擴(kuò)散模型,為大型語言模型在視覺任務(wù)領(lǐng)域帶來嶄新機(jī)遇。
FAVOR:通過精細(xì)融合音頻和視覺細(xì)節(jié)提升大模型視頻理解能力
研究人員最近發(fā)布了名為FAVOR的創(chuàng)新技術(shù),它能夠通過精細(xì)融合音頻和視覺信息,顯著提高大型語言模型對(duì)視頻內(nèi)容的理解能力,為人工智能視頻理解技術(shù)的進(jìn)步帶來積極影響。
【AiBase提要】:
1. FAVOR技術(shù)巧妙地融合音頻和視覺信息,從幀級(jí)別提升大型語言模型對(duì)視頻的理解。
2. 這一創(chuàng)新為大型語言模型在視頻理解領(lǐng)域開辟新機(jī)遇,提高了視頻理解的準(zhǔn)確性和效率。
3. FAVOR支持多模態(tài)輸入,包括文本、圖像、音頻和視頻,為用戶提供更精確的多媒體交互體驗(yàn)。
(舉報(bào))