要點(diǎn):
1、清華、浙大等中國(guó)頂尖學(xué)府提供了性能優(yōu)異的GPT-4V開(kāi)源替代方案。
2、LLaVA、CogAgent和BakLLaVA是三種具有極大潛力的開(kāi)源視覺(jué)語(yǔ)言模型。
3、LLaVA在視覺(jué)聊天和推理問(wèn)答方面表現(xiàn)出接近GPT-4水平的能力。
站長(zhǎng)之家(ChinaZ.com)1月4日 消息:近期,GPT-4V的開(kāi)源替代方案在中國(guó)的頂尖學(xué)府清華、浙大等的推動(dòng)下,出現(xiàn)了一系列性能優(yōu)異的開(kāi)源視覺(jué)模型。其中,LLaVA、CogAgent和BakLLaVA是三種備受關(guān)注的開(kāi)源視覺(jué)語(yǔ)言模型。
LLaVA是一個(gè)端到端訓(xùn)練的多模態(tài)大模型,它將視覺(jué)編碼器和用于通用視覺(jué)和語(yǔ)言理解的Vicuna相結(jié)合,具備令人印象深刻的聊天能力。而CogAgent是在CogVLM基礎(chǔ)上改進(jìn)的開(kāi)源視覺(jué)語(yǔ)言模型,擁有110億個(gè)視覺(jué)參數(shù)和70億個(gè)語(yǔ)言參數(shù)。
另外,BakLLaVA是使用LLaVA1.5架構(gòu)增強(qiáng)的Mistral7B基礎(chǔ)模型,已經(jīng)在多個(gè)基準(zhǔn)測(cè)試中優(yōu)于LLaVA213B。這三種開(kāi)源視覺(jué)模型在視覺(jué)處理領(lǐng)域具有極大的潛力。
LLaVA在視覺(jué)聊天和推理問(wèn)答方面表現(xiàn)出接近GPT-4水平的能力。在視覺(jué)聊天方面,LLaVA的表現(xiàn)相對(duì)于GPT-4的評(píng)分達(dá)到了85%,在推理問(wèn)答方面更是達(dá)到了92.53%的超過(guò)GPT-4的新SoTA。LLaVA在回答問(wèn)題時(shí),能夠全面而有邏輯地生成回答,并且可以以JSON格式輸出。
它不僅可以從圖片中提取信息并回答問(wèn)題,還可以將圖片轉(zhuǎn)化為JSON格式。LLaVA還可以識(shí)別驗(yàn)證碼、識(shí)別圖中的物體品種等,展現(xiàn)出了強(qiáng)大的多模態(tài)能力。在性能上接近GPT-4的情況下,LLaVA具有更高的成本效益,訓(xùn)練只需要8個(gè)A100即可在1天內(nèi)完成。
CogAgent作為在CogVLM基礎(chǔ)上改進(jìn)的開(kāi)源視覺(jué)語(yǔ)言模型,擁有更多的功能和性能優(yōu)勢(shì)。它支持更高分辨率的視覺(jué)輸入和對(duì)話答題,能夠處理超高分辨率圖像輸入。
論文地址:https://arxiv.org/pdf/2312.08914.pdf
CogAgent還提供了可視化代理的能力,能夠返回任何給定任務(wù)的計(jì)劃、下一步行動(dòng)和帶有坐標(biāo)的具體操作。它還增強(qiáng)了與圖形用戶界面相關(guān)的問(wèn)題解答功能,可以處理與網(wǎng)頁(yè)、PC應(yīng)用程序、移動(dòng)應(yīng)用程序等任何圖形用戶界面截圖相關(guān)的問(wèn)題。另外,通過(guò)改進(jìn)預(yù)培訓(xùn)和微調(diào),CogAgent還增強(qiáng)了OCR相關(guān)任務(wù)的能力。這些功能的提升使得CogAgent在多個(gè)基準(zhǔn)測(cè)試上實(shí)現(xiàn)了最先進(jìn)的通用性能。
BakLLaVA是使用LLaVA1.5架構(gòu)增強(qiáng)的Mistral7B基礎(chǔ)模型,具備更好的性能和商用能力。BakLLaVA在多個(gè)基準(zhǔn)測(cè)試中優(yōu)于LLaVA213B,并且可以在某些數(shù)據(jù)上進(jìn)行微調(diào)和推理。雖然BakLLaVA在訓(xùn)練過(guò)程中使用了LLaVA的語(yǔ)料庫(kù),不允許商用,但BakLLaVA2則采用了更大的數(shù)據(jù)集和更新的架構(gòu),超越了當(dāng)前的LLaVA方法,具備商用能力。
(舉報(bào))