IJCAI20收錄, 中科大蔣樹(shù)強(qiáng)老師的學(xué)生寫(xiě)的.
論文分為兩個(gè)部分, base learner和task embedding. 其中task embedding從實(shí)驗(yàn)數(shù)據(jù)角度來(lái)看基本沒(méi)什么用, 可能主要是限制于最終只作用于classifer(全連接層, 是可以直接算出最優(yōu)解).
文章優(yōu)點(diǎn)在于鎖定了其研究的問(wèn)題是細(xì)粒度少樣本圖片識(shí)別few-shot fine-grained image recognition (FSFGIR), 從元學(xué)習(xí)的角度來(lái)說(shuō)并沒(méi)有什么大的創(chuàng)新, 由于其采取的數(shù)據(jù)集不具有普適性, 從其消融實(shí)驗(yàn)的結(jié)果來(lái)看, 其方法主要效果來(lái)自于對(duì)attention層的使用.
可以看出來(lái)在置信度95%情況下, task learner實(shí)際上效果相對(duì)CBAM差很多, 基本上沒(méi)什么作用.
如果著重考慮CBAM層的話(huà), 也不能看對(duì)比實(shí)驗(yàn), 因?yàn)閷?duì)比當(dāng)中像MAML這樣的模型無(wú)關(guān)的元學(xué)習(xí)方法沒(méi)有相同的模型基本沒(méi)什么對(duì)比性, 或者說(shuō)本文的效果就是來(lái)自一個(gè)好模型配MAML.
這篇文章寫(xiě)的還是可以的, 通篇讀起來(lái)還是很舒服, 雖然創(chuàng)新性有限, 但是其鎖定問(wèn)題很好, 并且這個(gè)問(wèn)題易于理解, 其他工作又不多, 因此能中頂會(huì). 但是單從方法論角度看, 其無(wú)非是從CBAM中獲益, 而新提出的task learner 方法雖然很復(fù)雜但是實(shí)驗(yàn)結(jié)果顯的有些雞肋.?