站長之家(ChinaZ.com)4月23日 消息:在視頻分割領域,Segment Anything 模型(SAM)被用于探索新的視頻對象分割技術。研究團隊測試了兩種不同的模型,旨在結合 SAM 的分割能力和光流技術的優(yōu)勢,以提高視頻分割的性能。
SAM 與光流結合的模型:第一種模型中,研究者對 SAM 進行了修改,使其能夠直接使用光流數(shù)據(jù)作為輸入,而非傳統(tǒng)的 RGB 圖像。光流數(shù)據(jù)能夠提供關于圖像中物體運動的信息,這對于分割和識別移動物體特別有用。
SAM 與 RGB 圖像結合的模型:第二種模型則保持了 SAM 使用 RGB 圖像作為主要輸入的方式,但引入了光流數(shù)據(jù)作為輔助提示,以增強模型對視頻中物體運動的識別和分割能力。
這兩種方法都展示了在視頻對象分割任務中的潛力,即使沒有進行復雜的修改或優(yōu)化,也已經(jīng)在單對象和多對象的視頻基準測試中取得了顯著的性能提升。
此外,研究者還探索了將這些基于幀的分割方法擴展到整個視頻序列上,以實現(xiàn)對同一物體在視頻連續(xù)幀中的身份進行追蹤。這種序列級別的分割技術能夠連續(xù)地識別和追蹤視頻中的特定對象,即使在物體運動、場景變化或光照條件變化的情況下也能保持一致性。
這些研究成果不僅提升了視頻分割的精度和效率,而且通過簡化模型的設計,降低了計算復雜度和資源消耗,使得實時視頻分割和物體追蹤變得更加可行。這些技術的進展對于視頻編輯、安防監(jiān)控、自動駕駛車輛的視覺系統(tǒng)以及許多其他應用場景都具有重要意義。
目前,具體的技術細節(jié)、模型性能指標以及未來的研究方向尚未詳細公布,但這些初步的研究成果已經(jīng)為視頻分割技術的發(fā)展提供了新的方向和可能性。
演示頁面:https://www.robots.ox.ac.uk/~vgg/research/flowsam/
(舉報)