如果模型知道目標在哪,那么我們只需要教模型讀出目標的位置,而不需要顯式地進行分類、回歸。對于這項工作,研究者們希望可以啟發人們探索目標跟蹤等視頻任務的自回歸式序列生成建模。 自回歸式的序列生成模型在諸多自然語言處理任務中一直占據著重要地位,特別是最近ChatGPT的出現,讓人們更加驚嘆于這種模型的強大生成能力和潛力。 最近,微軟亞洲研究院與大連理工大學的研究人員提出了一種使用序列生成模型來完成視覺目標跟蹤任務的新框架SeqTrack,來將跟蹤建模成目標坐標序列的生成任務。目前的目標跟蹤框架,一般把目標跟蹤拆分為分類、回歸、角點預測等多個子任務,然后使用多個定制化的預測頭和損失函數來完成這些任務。而SeqTrack通過將跟蹤建模成單純的序列生成任務,不僅擺脫了冗余的預測頭和損失函數,也在多個數據集上取得了優秀的性能。
1.新的目標跟蹤框架,將跟蹤建模為序列生成任務,一個簡潔而有效的新基線;
2.摒棄冗余的預測頭和損失函數,僅使用樸素的Transformer和交叉熵損失,具有較高的可擴展性。
一 、研究動機
現在比較先進的目標跟蹤方法采用了“分而治之”的策略,即將跟蹤問題解耦成多個子任務,例如中心點預測、前景/背景二分類、邊界框回歸、角點預測等。盡管在各個跟蹤數據機上取得了優秀的性能,但這種“分而治之”的策略存在以下兩個缺點:
1、模型復雜:每個子任務都需要一個定制化的預測頭,導致框架變得復雜,不利于擴展
2、損失函數冗余:每個預測頭需要一個或多個損失函數,引入額外超參數,使訓練困難
圖1 目前常見的跟蹤框架
研究者認為,如果模型知道目標在圖像中的位置,那么只需要簡單地教模型讀出目標邊界框即可,不需要用“分而治之”的策略去顯式地進行分類和回歸等。為此,作者采用了自回歸式的序列生成建模來解決目標跟蹤任務,教模型把目標的位置作為一句話去“讀”出來。
圖2 跟蹤的序列生成建模
二、方法概覽
研究者將目標邊界框的四個坐標轉化為由離散值token組成的序列,然后訓練SeqTrack模型逐個token地預測出這個序列。在模型結構上,SeqTrack采用了原汁原味的encoder-decoder形式的transformer,方法整體框架圖如下圖3所示:
圖3 SeqTrack結構圖
Encoder提取模板與搜索區域圖片的視覺特征,decoder參考這些視覺特征,完成序列的生成。序列包含構成邊界框的 x,y,w,h token,以及兩個特殊的 start 和 end token,分別表示生成的開始與結束。 在推理時,start token告知模型開始生成序列,然后模型依次生成 x,y,w,h ,每個token的生成都會參考前序已生成好的token,例如,生成 w 時,模型會以 [start, x, y] 作為輸入。當 [x,y,w,h] 生成完,模型會輸出end token,告知用戶預測完成。 為了保證訓練的高效,訓練時token的生成是并行的,即 [start, x,y,w,h] 被同時輸入給模型,模型同時預測出 [x,y,w,h, end] 。為了保證推理時的自回歸性質,在訓練時對decoder中的自注意力層中添加了因果性的attention mask,以保證每個token的預測僅取決于它前序的token,attention mask如下圖4所示。
圖3 Attention mask,第 i 行第 j 列的橘色格子代表第生成第 i 個輸出token時,允許觀察到第 j 個輸入token,而白色格子代表不可觀察。
圖像上連續的坐標值被均勻地離散化為了[1, 4000]中的整數。每個整數可以被視為一個單詞,構成了單詞表 V ,x,y,w,h 四個坐標從單詞表 V 中取值。
與常見的序列模型類似,在訓練時,SeqTrack使用交叉熵損失來最大化目標值基于前序token的預測值、搜索區域、模板三者的條件概率:
在推理時,使用最大似然從單詞表 V 中為每個token取值:
通過這種方式,僅需要交叉熵損失即可完成模型的訓練,大大簡化了復雜度。 除此之外,研究者們還設計了合適的方式,在不影響模型與損失函數的情況下,引入了在線模板更新、窗口懲罰等技術來集成跟蹤的先驗知識,這里不再贅述,具體細節請參考論文。
三、實驗結果
研究者開發了四種不同大小的模型,以取得性能與速度之間的平衡,并在8個跟蹤數據集上驗證了這些模型的性能。
表1 SeqTrack模型參數
如下表2所示,在大尺度數據集LaSOT, LaSOText,TrackingNet, GOT-10k上,SeqTrack取得了優秀的性能。例如,與同樣使用ViT-B和256輸入圖片分辨率的OSTrack-256相比,SeqTrack-B256在四個數據集上都取得了更好的結果。
表2大規模數據集性能
如表3所示,SeqTrack在包含多種不常見目標類別的TNL2K數據集上取得了領先的性能,驗證了SeqTrack的泛化性。在小規模數據集NFS和UAV123上也都取得了具有競爭力的性能。
表3額外數據集性能
圖4所示,在VOT競賽數據集上,分別使用邊界框測試和分割掩膜測試,SeqTrack都取得了優秀的性能。
圖4 VOT2020性能
這樣簡單的框架具有良好的可擴展性,只需要將信息引入到序列構建中,而無需更改網絡結構。例如,研究者們進行了額外的實驗來嘗試在序列中引入時序信息。具體來說,將輸入序列擴展到多幀,包含了目標邊界框的歷史值。表4顯示這樣的簡單擴展提升了基線模型的性能。
圖5 時序序列示意圖
表4 時序序列結果
四、結語
本文提出了目標跟蹤的新的建模方式:序列生成式建模。它將目標跟蹤建模為了序列生成任務,僅使用簡單的Transformer結構和交叉熵損失,簡化了跟蹤框架。大量實驗表明了序列生成建模的優秀性能和潛力。在文章的最后,研究者希望通過本文給視覺目標跟蹤和其他視頻任務的序列建模提供靈感。在未來工作,研究者將嘗試進一步融合時序信息,以及擴展到多模態任務。
-
建模
+關注
關注
1文章
300瀏覽量
60740 -
函數
+關注
關注
3文章
4308瀏覽量
62445 -
Transformer
+關注
關注
0文章
141瀏覽量
5982
原文標題:CVPR 2023 | 大連理工和微軟提出SeqTrack:目標跟蹤新框架
文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論