shufflenetv2
這里這一步工作實際上相對比以前簡單些鳍贾,因為pytorch1.1之后開辟了hub,這樣有很多模型都可以從這里找到交洗,雖然是只有2d的模型骑科,因為有過之前的經(jīng)驗所以說做inflate 3d這一塊相對而言比較簡單。
shufflenetv2如果不清楚可以看看超鏈接的介紹构拳,v2對v1相比而言咆爽,有很大的新改動。
shufflenetv2的核心思想
其實其中的核心就是channel shuffle以及cahnnel group置森,這一塊雖然這個網(wǎng)絡(luò)用的是batchnorm斗埂,如果結(jié)合groupnorm來做可能效果會更好一些,這個到后續(xù)在進行操作凫海。目前只是單純實現(xiàn)了shufflenetv2從2d到3d的擴充蜜笤,做法很簡單。
在ShuffleNet v2的文章中作者指出現(xiàn)在普遍采用的FLOPs評估模型性能是非常不合理的盐碱,因為一批樣本的訓練時間除了看FLOPs把兔,還有很多過程需要消耗時間沪伙,例如文件IO,內(nèi)存讀取县好,GPU執(zhí)行效率等等围橡。作者從內(nèi)存消耗成本,GPU并行性兩個方向分析了模型可能帶來的非FLOPs的行動損耗缕贡,進而設(shè)計了更加高效的ShuffleNet v2翁授。ShuffleNet v2的架構(gòu)和DenseNet[4]有異曲同工之妙,而且其速度和精度都要優(yōu)于DenseNet晾咪。
總的來說就是內(nèi)存消耗成本大大減少了收擦,但是經(jīng)過本機測試還是挺耗時的,這個可能只能借鑒一下其中的思想以便后續(xù)使用谍倦。
shufflenet3d的工程
這個是我自己改的工程塞赂,做法確實很簡單,然后因為官方還提供了imagenet預(yù)訓練模型昼蛀,這樣相對而言我們做inflate也好做宴猾。看看后續(xù)能不能用這個做點額外工作吧叼旋。