歡迎來(lái)到【AI日?qǐng)?bào)】欄目!這里是你每天探索人工智能世界的指南,每天我們?yōu)槟愠尸F(xiàn)AI領(lǐng)域的熱點(diǎn)內(nèi)容,聚焦開(kāi)發(fā)者,助你洞悉技術(shù)趨勢(shì)、了解創(chuàng)新AI產(chǎn)品應(yīng)用。
新鮮AI產(chǎn)品點(diǎn)擊了解:https://top.aibase.com/
1、微信接入DeepSeek 騰訊回應(yīng):不會(huì)使用用戶(hù)個(gè)人信息和隱私數(shù)據(jù)
近期,微信在搜索功能上進(jìn)行了創(chuàng)新,開(kāi)始灰度測(cè)試接入DeepSeek R1模型,旨在提升用戶(hù)的AI搜索體驗(yàn)。騰訊確認(rèn),參與測(cè)試的用戶(hù)將能夠免費(fèi)使用該模型,享受更豐富的搜索服務(wù)。新功能的推出標(biāo)志著微信在搜索技術(shù)上的重要進(jìn)展,同時(shí)騰訊也承諾不會(huì)使用用戶(hù)的個(gè)人信息,確保用戶(hù)隱私得到保護(hù)。
【AiBase提要:】
?? 微信搜一搜引入DeepSeek R1模型,提升AI搜索能力,用戶(hù)可享受更智能的搜索體驗(yàn)。
?? 騰訊承諾在A(yíng)I搜索中不使用用戶(hù)個(gè)人信息,保障用戶(hù)隱私安全。
?? 多個(gè)騰訊產(chǎn)品正在探索接入DeepSeek模型,提供更穩(wěn)定和全面的搜索服務(wù)。
2、百度搜索:將全面接入DeepSeek及文心深度搜索功能
百度搜索近期宣布全面接入DeepSeek和文心大模型的深度搜索功能,旨在提升用戶(hù)的搜索體驗(yàn)。文心大模型的深度搜索功能已于2月13日上線(xiàn),具備多模態(tài)輸入輸出能力,能夠提供專(zhuān)家級(jí)內(nèi)容回復(fù)。與此同時(shí),百度文心智能體平臺(tái)也將接入DeepSeek,以便為開(kāi)發(fā)者提供更便利的模型調(diào)用途徑。
【AiBase提要:】
?? 文心大模型的深度搜索功能已于2月13日上線(xiàn),提供多元化的搜索服務(wù)。
?? 開(kāi)發(fā)者將通過(guò)百度文心智能體平臺(tái)接入DeepSeek,簡(jiǎn)化智能體創(chuàng)建與優(yōu)化。
?? 文心一言將于4月1日起全面免費(fèi)開(kāi)放,未來(lái)幾個(gè)月內(nèi)還將推出新版本。
3、開(kāi)發(fā)者狂喜!字節(jié)AI編程工具Trae正式發(fā)布Win x64版本
字節(jié)AI編程工具Trae的Win x64版本正式發(fā)布,標(biāo)志著其在開(kāi)發(fā)者工具領(lǐng)域的又一重要進(jìn)展。這一更新旨在為用戶(hù)提供更流暢的操作體驗(yàn),進(jìn)一步提升開(kāi)發(fā)效率。Trae的Builder模式通過(guò)與AI的對(duì)話(huà)簡(jiǎn)化任務(wù)執(zhí)行,結(jié)合多模態(tài)功能和智能自動(dòng)補(bǔ)全,極大地優(yōu)化了開(kāi)發(fā)過(guò)程,幫助開(kāi)發(fā)者更專(zhuān)注于創(chuàng)作。
【AiBase提要:】
?? Trae現(xiàn)已支持Win x64版本,為用戶(hù)提供更流暢的操作體驗(yàn)。
?? Builder模式允許用戶(hù)與AI對(duì)話(huà),自動(dòng)拆解和執(zhí)行任務(wù),提升工作效率。
?? 先進(jìn)的智能自動(dòng)補(bǔ)全功能實(shí)時(shí)預(yù)測(cè)用戶(hù)意圖,顯著提高開(kāi)發(fā)效率。
詳情鏈接:https://www.trae.ai/
4、馬斯克宣布 xAI 將推出 Grok3,稱(chēng)其為 “地表最強(qiáng)AI模型”
在全球人工智能競(jìng)爭(zhēng)加劇的背景下,億萬(wàn)富翁埃隆·馬斯克創(chuàng)辦的人工智能公司xAI即將發(fā)布其最新的Grok3聊天機(jī)器人。馬斯克稱(chēng)Grok3為“地球上最聰明的AI”,并強(qiáng)調(diào)其超越現(xiàn)有市場(chǎng)競(jìng)爭(zhēng)工具的能力。Grok3具備反思自身錯(cuò)誤的能力,能夠通過(guò)分析數(shù)據(jù)實(shí)現(xiàn)邏輯一致性。
【AiBase提要:】
?? 馬斯克將于本周一發(fā)布Grok3聊天機(jī)器人,稱(chēng)其為“地球上最聰明的AI”。
?? Grok3具備反思自身錯(cuò)誤的能力,并超越當(dāng)前市場(chǎng)上所有競(jìng)爭(zhēng)工具。
?? 全球多個(gè)國(guó)家加速推出AI聊天機(jī)器人,市場(chǎng)競(jìng)爭(zhēng)愈發(fā)激烈。
5、UI設(shè)計(jì)神器!Ready AI:輸入提示詞即可生成專(zhuān)業(yè)級(jí)網(wǎng)頁(yè)
Ready AI是一款引人注目的工具,允許用戶(hù)通過(guò)簡(jiǎn)單的文字指令在短短30秒內(nèi)生成專(zhuān)業(yè)級(jí)的網(wǎng)頁(yè)界面。其獨(dú)特之處在于提供實(shí)時(shí)預(yù)覽和版本對(duì)比功能,使得設(shè)計(jì)過(guò)程更加高效。用戶(hù)可以自由選擇框架、顏色風(fēng)格和布局結(jié)構(gòu),甚至可以上傳圖片作為靈感。
【AiBase提要:】
?? 文字指令秒出雙版本設(shè)計(jì):支持A/B方案對(duì)比與歷史版本回溯
??? 前端界面生成利器:需配合編程工具實(shí)現(xiàn)完整功能
?? 階梯式收費(fèi)方案:免費(fèi)版可生成10個(gè)完整頁(yè)面
詳情鏈接:https://readdy.ai/home
6、QQ瀏覽器接入DeepSeek-R1滿(mǎn)血版 支持微信公眾號(hào)等實(shí)時(shí)聯(lián)網(wǎng)搜索
QQ瀏覽器于2月16日正式接入DeepSeek-R1模型滿(mǎn)血版,旨在為用戶(hù)提供更智能、便捷的搜索體驗(yàn)。新模型具備深度思考、聯(lián)網(wǎng)搜索、多輪對(duì)話(huà)及歷史記錄回溯等功能,確保用戶(hù)獲得全面且高質(zhì)量的回答。此外,用戶(hù)在手機(jī)端和電腦端均可輕松訪(fǎng)問(wèn)該功能,提升了搜索的精準(zhǔn)度和效率。
【AiBase提要:】
?? 接入DeepSeek-R1模型,增強(qiáng)搜索體驗(yàn),支持多輪對(duì)話(huà)和歷史記錄回溯。
?? 用戶(hù)可在手機(jī)端和電腦端使用DeepSeek模型,提供實(shí)時(shí)聯(lián)網(wǎng)搜索,包括微信公眾號(hào)信息。
?? 提供記筆記和正文提取功能,支持多種格式導(dǎo)出,提升信息處理效率。
7、Light-A-Video :無(wú)需訓(xùn)練實(shí)現(xiàn)視頻重新打光
Light-A-Video是一項(xiàng)創(chuàng)新技術(shù),旨在解決視頻重光照中的時(shí)間一致性問(wèn)題。通過(guò)引入一致光注意力模塊和漸進(jìn)光融合策略,該方法能夠有效處理光源不一致的問(wèn)題,顯著提升視頻質(zhì)量和時(shí)間一致性。實(shí)驗(yàn)結(jié)果表明,Light-A-Video不僅保持了圖像的高質(zhì)量,還確保了跨幀光照的平滑過(guò)渡,為視頻重光照領(lǐng)域的未來(lái)研究提供了新的方向。
【AiBase提要:】
?? Light-A-Video 是一種無(wú)需訓(xùn)練的技術(shù),旨在實(shí)現(xiàn)視頻重光照的時(shí)間一致性。
?? 采用一致光注意力模塊和漸進(jìn)光融合策略,解決了視頻重光照中的光源不一致問(wèn)題。
?? 實(shí)驗(yàn)表明,Light-A-Video 顯著提高了重光照視頻的時(shí)間一致性與圖像質(zhì)量。
詳情鏈接:https://bujiazi.github.io/light-a-video.github.io/
8、Meta 出品!Pippo:輸入單張人物圖片生高分辨率多視角圖片
Meta Reality Labs 最近推出的 Pippo 模型是一項(xiàng)突破性技術(shù),能夠從一張普通照片生成高達(dá)1K分辨率的多視角視頻。這一創(chuàng)新不需要額外的輸入?yún)?shù),用戶(hù)只需提供一張照片,系統(tǒng)便能自動(dòng)生成生動(dòng)的立體效果。為了方便開(kāi)發(fā)者,Pippo 以代碼-only 版本發(fā)布,用戶(hù)可以自行訓(xùn)練模型并進(jìn)行應(yīng)用。
【AiBase提要:】
?? Pippo 模型能夠從一張普通照片生成高分辨率的多視角視頻,無(wú)需額外輸入。
?? 代碼僅發(fā)布,沒(méi)有預(yù)訓(xùn)練權(quán)重,開(kāi)發(fā)者可自行訓(xùn)練模型并進(jìn)行應(yīng)用。
?? 團(tuán)隊(duì)計(jì)劃未來(lái)推出更多功能和改進(jìn),以增強(qiáng)用戶(hù)體驗(yàn)。
詳情鏈接:https://github.com/facebookresearch/pippo
9、微軟發(fā)布 OmniParser V2.0:把屏幕截圖轉(zhuǎn)化成LLM可處理的結(jié)構(gòu)化格式
微軟推出的 OmniParser V2.0是一款新型解析工具,旨在將用戶(hù)界面截圖轉(zhuǎn)化為結(jié)構(gòu)化數(shù)據(jù),從而提升基于大型語(yǔ)言模型的用戶(hù)操作體驗(yàn)。該工具通過(guò)改進(jìn)的數(shù)據(jù)集和算法,顯著提高了圖標(biāo)識(shí)別的準(zhǔn)確性和處理速度,使用戶(hù)在操作虛擬機(jī)時(shí)更加高效。
【AiBase提要:】
?? OmniParser V2.0能將 UI 截圖轉(zhuǎn)換為結(jié)構(gòu)化信息,提升用戶(hù)操作體驗(yàn)。
? 新版本平均延遲減少至0.6秒/幀,準(zhǔn)確率達(dá)39.6%。
?? 使用時(shí)需注意輸入內(nèi)容的安全性,開(kāi)發(fā)者應(yīng)遵循安全標(biāo)準(zhǔn)與倫理規(guī)范。
詳情鏈接:https://huggingface.co/microsoft/OmniParser-v2.0
10、月之暗面解密o1:Long-CoT是關(guān)鍵,模型思考需要放長(zhǎng)線(xiàn)
月之暗面研究員Flood Sung在長(zhǎng)文中深入探討了k1.5模型的研發(fā)思路及OpenAI o1模型的技術(shù)啟示。文章強(qiáng)調(diào)了Long-CoT(長(zhǎng)鏈條思維)的重要性,指出其在小型模型訓(xùn)練中的應(yīng)用效果顯著。盡管之前因成本考慮將重點(diǎn)放在Long Context的優(yōu)化上,但OpenAI o1的發(fā)布促使團(tuán)隊(duì)重新審視技術(shù)方向,決定全面推進(jìn)Long-CoT研究,以期實(shí)現(xiàn)更接近人類(lèi)的思考能力。
【AiBase提要:】
?? Long-CoT被證明在小型模型訓(xùn)練多位數(shù)運(yùn)算中具有顯著效果,強(qiáng)調(diào)了其在輸出端的重要性。
?? OpenAI o1的發(fā)布促使月之暗面重新審視技術(shù)優(yōu)先級(jí),認(rèn)為性能突破是首要目標(biāo)。
?? 月之暗面開(kāi)始系統(tǒng)性對(duì)標(biāo)o1模型,致力于在相關(guān)領(lǐng)域展開(kāi)實(shí)質(zhì)性研究。
詳情鏈接:https://mp.weixin.qq.com/s/sJmT-tM3A-mglZ1d4OI80A
11、80%準(zhǔn)確率!Meta 研發(fā)出無(wú)創(chuàng)腦機(jī)接口,僅憑思維就能打字
Meta最近開(kāi)發(fā)了一種無(wú)創(chuàng)腦機(jī)接口設(shè)備,能夠通過(guò)讀取人腦的神經(jīng)信號(hào)實(shí)現(xiàn)文字輸入。該技術(shù)利用磁腦電圖(MEG)掃描儀和深度學(xué)習(xí)AI模型,成功解碼打字時(shí)的腦電信號(hào),重建完整句子。盡管設(shè)備重達(dá)近半噸、價(jià)格高達(dá)200萬(wàn)美元,并需在特殊環(huán)境中使用,當(dāng)前準(zhǔn)確率已達(dá)80%。
【AiBase提要:】
?? Meta開(kāi)發(fā)的無(wú)創(chuàng)腦機(jī)接口設(shè)備可通過(guò)腦信號(hào)實(shí)現(xiàn)文字輸入。
?? 該設(shè)備重達(dá)半噸,價(jià)格高達(dá)200萬(wàn)美元,且需在特殊環(huán)境中使用。
?? 目前準(zhǔn)確率為80%,但仍需改進(jìn),距離實(shí)際應(yīng)用還有一定距離。
(舉報(bào))