Attention Cluster 模型
視頻分類問題在視頻標(biāo)簽、監(jiān)控爵嗅、自動駕駛等領(lǐng)域有著廣泛的應(yīng)用,但它同時也是計算機(jī)視覺領(lǐng)域面臨的一項重要挑戰(zhàn)之一笨蚁。
目前的視頻分類問題大多是基于 CNN 或者 RNN 網(wǎng)絡(luò)實(shí)現(xiàn)的睹晒。眾所周知,CNN 在圖像領(lǐng)域已經(jīng)發(fā)揮了重大作用赚窃。它具有很好的特征提取能力册招,通過卷積層和池化層岔激,可以在圖像的不同區(qū)域提取特征勒极。RNN 則在獲取時間相關(guān)的特征方面有很強(qiáng)的能力。
Attention Cluster 在設(shè)計上僅利用了 CNN 模型虑鼎,而沒有使用 RNN辱匿,主要是基于視頻的以下幾個特點(diǎn)考慮:
圖 1 視頻幀的分析
首先键痛,一段視頻的連續(xù)幀常常有一定的相似性。在圖 1(上)可以看到匾七,除了擊球的動作以外絮短,不同幀幾乎是一樣的。因此昨忆,對于分類丁频,可能從整體上關(guān)注這些相似的特征就足夠了,而沒有必要去特意觀察它們隨著時間的細(xì)節(jié)變化邑贴。
其次席里,視頻幀中的局部特征有時就足夠表達(dá)出視頻的類別。比如圖 1(中)拢驾,通過一些局部特征奖磁,如牙刷、水池繁疤,就能夠分辨出『刷牙』這個動作咖为。因此,對于分類問題稠腊,關(guān)鍵在于找到幀中的關(guān)鍵的局部特征躁染,而非去找時間上的線索。
最后架忌,在一些視頻的分類中褐啡,幀的時間順序?qū)τ诜诸惒灰欢ㄊ侵匾摹1热鐖D 1(下)鳖昌,可以看到备畦,雖然幀順序被打亂,依然能夠看出這屬于『撐桿跳』這個類別许昨。
基于以上考慮懂盐,該模型沒有考慮時間相關(guān)的線索,而是使用了 Attention 機(jī)制糕档。它有以下幾點(diǎn)好處:
1. Attention 的輸出本質(zhì)上是加權(quán)平均莉恼,這可以避免一些重復(fù)特征造成的冗余。
2. 對于一些局部的關(guān)鍵特征速那,Attention 能夠賦予其更高的權(quán)重俐银。這樣就能夠通過這些關(guān)鍵的特征,提高分類能力端仰。
3. Attention 的輸入是任意大小的無序集合捶惜。無序這點(diǎn)滿足我們上面的觀察,而任意大小的輸入又能夠提高模型的泛化能力荔烧。
當(dāng)然吱七,一些視頻的局部特征還有一個特點(diǎn)汽久,那就是它可能會由多個部分組成。比如圖 1(下)的『撐桿跳』踊餐,跳景醇、跑和著陸同時對這個分類起到作用。因此吝岭,如果只用單一的 Attention 單元三痰,只能獲取視頻的單一關(guān)鍵信息。而如果使用多個 Attention 單元窜管,就能夠提取更多的有用信息酒觅。于是,Attention Cluster 就應(yīng)運(yùn)而生了微峰!在實(shí)現(xiàn)過程中舷丹,百度計算機(jī)視覺團(tuán)隊還發(fā)現(xiàn),將不同的 Attention 單元進(jìn)行一次簡單有效的『位移操作』(shifting operation)蜓肆,可以增加不同單元的多樣性颜凯,從而提高準(zhǔn)確率。
接下來我們看一下整個 Attention Cluster 的結(jié)構(gòu)仗扬。
整個模型可以分為三個部分:
1. 局部特征提取症概。通過 CNN 模型抽取視頻的特征。提取后的特征用 X 表示早芭,如公式(1)所示:
(1)彼城。X 的維度為 L,代表 L 個不同的特征退个。
2. 局部特征集成募壕。基于 Attention 來獲取全局特征。Attention 的輸出本質(zhì)上相當(dāng)于做了加權(quán)平均语盈。如公式(2)所示舱馅,v 是一個 Attention 單元輸出的全局特征,a 是權(quán)重向量刀荒,由兩層全連接層組成代嗤,如公式(3)所示。實(shí)際實(shí)現(xiàn)中缠借,v 的產(chǎn)生使用了 Shifting operation干毅,如公式(4)所示,其中α和β是可學(xué)習(xí)的標(biāo)量泼返。它通過對每一個 Attention 單元的輸出添加一個獨(dú)立可學(xué)習(xí)的線性變換處理后進(jìn)行 L2-normalization硝逢,使得各 Attention 單元傾向于學(xué)習(xí)特征的不同成分,從而讓 Attention Cluster 能更好地學(xué)習(xí)不同分布的數(shù)據(jù),提高整個網(wǎng)絡(luò)的學(xué)習(xí)表征能力趴捅。由于采用了 Attention clusters垫毙,這里會將各個 Attention 單元的輸出組合起來霹疫,得到多個全局特征 g拱绑,如公式(5)所示。N 代表的是 clusters 的數(shù)量丽蝎。
3. 全局特征分類猎拨。將多個全局特征拼接以后,再通過常規(guī)的全連接層和 Softmax 或 Sigmoid 進(jìn)行最后的單標(biāo)簽或多標(biāo)簽分類屠阻。
用 PaddlePaddle 訓(xùn)練 Attention Cluster
PaddlePaddle 開源的 Attention Cluster 模型红省,使用了 2nd-Youtube-8M 數(shù)據(jù)集。該數(shù)據(jù)集已經(jīng)使用了在 ImageNet 訓(xùn)練集上 InceptionV3 模型對特征進(jìn)行了抽取国觉。
如果運(yùn)行該模型的樣例代碼吧恃,要求使用 PaddlePaddle Fluid V1.2.0 或以上的版本。
數(shù)據(jù)準(zhǔn)備:首先請使用 Youtube-8M 官方提供的鏈接下載訓(xùn)練集和測試集麻诀,或者使用官方腳本下載痕寓。數(shù)據(jù)下載完成后,將會得到 3844 個訓(xùn)練數(shù)據(jù)文件和 3844 個驗證數(shù)據(jù)文件(TFRecord 格式)蝇闭。為了適用于 PaddlePaddle 訓(xùn)練呻率,需要將下載好的 TFRecord 文件格式轉(zhuǎn)成了 pickle 格式,轉(zhuǎn)換腳本請使用 PaddlePaddle 提供的腳本 dataset/youtube8m/tf2pkl.py呻引。
訓(xùn)練集:http://us.data.yt8m.org/2/frame/train/index.html
測試集:http://us.data.yt8m.org/2/frame/validate/index.html
官方腳本:https://research.google.com/youtube8m/download.html
模型訓(xùn)練:數(shù)據(jù)準(zhǔn)備完畢后礼仗,通過以下方式啟動訓(xùn)練(方法 1),同時我們也提供快速啟動腳本 (方法 2)
# 方法 1
# 方法 2
用戶也可下載 Paddle Github 上已發(fā)布模型通過--resume 指定權(quán)重存放路徑進(jìn)行 finetune 等開發(fā)逻悠。
數(shù)據(jù)預(yù)處理說明: 模型讀取 Youtube-8M 數(shù)據(jù)集中已抽取好的 rgb 和 audio 數(shù)據(jù)元践,對于每個視頻的數(shù)據(jù),均勻采樣 100 幀童谒,該值由配置文件中的 seg_num 參數(shù)指定卢厂。
模型設(shè)置: 模型主要可配置參數(shù)為 cluster_nums 和 seg_num 參數(shù)。其中 cluster_nums 是 attention 單元的數(shù)量惠啄。當(dāng)配置 cluster_nums 為 32, seg_num 為 100 時慎恒,在 Nvidia Tesla P40 上單卡可跑 batch_size=256。
訓(xùn)練策略:
采用 Adam 優(yōu)化器撵渡,初始 learning_rate=0.001
訓(xùn)練過程中不使用權(quán)重衰減
參數(shù)主要使用 MSRA 初始化
模型評估:可通過以下方式(方法 1)進(jìn)行模型評估融柬,同樣我們也提供了快速啟動的腳本(方法 2):
# 方法 1
# 方法 2
使用 scripts/test/test_attention_cluster.sh 進(jìn)行評估時,需要修改腳本中的--weights 參數(shù)指定需要評估的權(quán)重趋距。
若未指定--weights 參數(shù)粒氧,腳本會下載已發(fā)布模型進(jìn)行評估
模型推斷:可通過如下命令進(jìn)行模型推斷:
模型推斷結(jié)果存儲于 AttentionCluster_infer_result 中,通過 pickle 格式存儲节腐。
若未指定--weights 參數(shù)外盯,腳本會下載已發(fā)布模型 model 進(jìn)行推斷
模型精度:當(dāng)模型取如下參數(shù)時摘盆,在 Youtube-8M 數(shù)據(jù)集上的指標(biāo)為:
參數(shù)取值:
評估精度: