自動計算模型參數(shù)量、FLOPs蛾派、乘加數(shù)以及所需內(nèi)存等數(shù)據(jù)

之前寫過一篇手動計算卷積神經(jīng)網(wǎng)絡(luò)參數(shù)量和FLOPs的計算公式的博客:卷積神經(jīng)網(wǎng)絡(luò)模型參數(shù)量和運算量計算方法俄认。
現(xiàn)介紹一款自動計算模型參數(shù)量、FLOPs洪乍、乘加數(shù)以及所需內(nèi)存等數(shù)據(jù)的輪子:torchstat眯杏。

食用方法如下:

1.安裝:
pip install torchstat
2.使用:
In [3]: import torch              
In [4]: from torchstat import stat           
In [5]: import torchvision.models as models      
In [6]: net = models.vgg11()           
In [7]: stat(net,(3,224,224))    # (3,224,224)表示輸入圖片的尺寸
運行結(jié)果:
[MAdd]: AdaptiveAvgPool2d is not supported!
[Flops]: AdaptiveAvgPool2d is not supported!
[Memory]: AdaptiveAvgPool2d is not supported!
[MAdd]: Dropout is not supported!
[Flops]: Dropout is not supported!
[Memory]: Dropout is not supported!
[MAdd]: Dropout is not supported!
[Flops]: Dropout is not supported!
[Memory]: Dropout is not supported!
        module name  input shape output shape       params memory(MB)              MAdd            Flops   MemRead(B)  MemWrite(B) duration[%]    MemR+W(B)
0        features.0    3 224 224   64 224 224       1792.0      12.25     173,408,256.0     89,915,392.0     609280.0   12845056.0      14.24%   13454336.0
1        features.1   64 224 224   64 224 224          0.0      12.25       3,211,264.0      3,211,264.0   12845056.0   12845056.0       1.40%   25690112.0
2        features.2   64 224 224   64 112 112          0.0       3.06       2,408,448.0      3,211,264.0   12845056.0    3211264.0      11.61%   16056320.0
3        features.3   64 112 112  128 112 112      73856.0       6.12   1,849,688,064.0    926,449,664.0    3506688.0    6422528.0       5.33%    9929216.0
4        features.4  128 112 112  128 112 112          0.0       6.12       1,605,632.0      1,605,632.0    6422528.0    6422528.0       0.65%   12845056.0
5        features.5  128 112 112  128  56  56          0.0       1.53       1,204,224.0      1,605,632.0    6422528.0    1605632.0       4.59%    8028160.0
6        features.6  128  56  56  256  56  56     295168.0       3.06   1,849,688,064.0    925,646,848.0    2786304.0    3211264.0       4.42%    5997568.0
7        features.7  256  56  56  256  56  56          0.0       3.06         802,816.0        802,816.0    3211264.0    3211264.0       0.29%    6422528.0
8        features.8  256  56  56  256  56  56     590080.0       3.06   3,699,376,128.0  1,850,490,880.0    5571584.0    3211264.0       8.13%    8782848.0
9        features.9  256  56  56  256  56  56          0.0       3.06         802,816.0        802,816.0    3211264.0    3211264.0       0.25%    6422528.0
10      features.10  256  56  56  256  28  28          0.0       0.77         602,112.0        802,816.0    3211264.0     802816.0       2.19%    4014080.0
11      features.11  256  28  28  512  28  28    1180160.0       1.53   1,849,688,064.0    925,245,440.0    5523456.0    1605632.0       4.72%    7129088.0
12      features.12  512  28  28  512  28  28          0.0       1.53         401,408.0        401,408.0    1605632.0    1605632.0       0.10%    3211264.0
13      features.13  512  28  28  512  28  28    2359808.0       1.53   3,699,376,128.0  1,850,089,472.0   11044864.0    1605632.0       8.77%   12650496.0
14      features.14  512  28  28  512  28  28          0.0       1.53         401,408.0        401,408.0    1605632.0    1605632.0       0.09%    3211264.0
15      features.15  512  28  28  512  14  14          0.0       0.38         301,056.0        401,408.0    1605632.0     401408.0       1.14%    2007040.0
16      features.16  512  14  14  512  14  14    2359808.0       0.38     924,844,032.0    462,522,368.0    9840640.0     401408.0       3.53%   10242048.0
17      features.17  512  14  14  512  14  14          0.0       0.38         100,352.0        100,352.0     401408.0     401408.0       0.03%     802816.0
18      features.18  512  14  14  512  14  14    2359808.0       0.38     924,844,032.0    462,522,368.0    9840640.0     401408.0       3.64%   10242048.0
19      features.19  512  14  14  512  14  14          0.0       0.38         100,352.0        100,352.0     401408.0     401408.0       0.03%     802816.0
20      features.20  512  14  14  512   7   7          0.0       0.10          75,264.0        100,352.0     401408.0     100352.0       0.32%     501760.0
21          avgpool  512   7   7  512   7   7          0.0       0.10               0.0              0.0          0.0          0.0       0.25%          0.0
22     classifier.0        25088         4096  102764544.0       0.02     205,516,800.0    102,760,448.0  411158528.0      16384.0      20.16%  411174912.0
23     classifier.1         4096         4096          0.0       0.02           4,096.0          4,096.0      16384.0      16384.0       0.02%      32768.0
24     classifier.2         4096         4096          0.0       0.02               0.0              0.0          0.0          0.0       0.03%          0.0
25     classifier.3         4096         4096   16781312.0       0.02      33,550,336.0     16,777,216.0   67141632.0      16384.0       3.26%   67158016.0
26     classifier.4         4096         4096          0.0       0.02           4,096.0          4,096.0      16384.0      16384.0       0.01%      32768.0
27     classifier.5         4096         4096          0.0       0.02               0.0              0.0          0.0          0.0       0.01%          0.0
28     classifier.6         4096         1000    4097000.0       0.00       8,191,000.0      4,096,000.0   16404384.0       4000.0       0.79%   16408384.0
total                                          132863336.0      62.69  15,230,196,248.0  7,630,071,808.0   16404384.0       4000.0     100.00%  663250240.0
===========================================================================================================================================================
Total params: 132,863,336
-----------------------------------------------------------------------------------------------------------------------------------------------------------
Total memory: 62.69MB
Total MAdd: 15.23GMAdd
Total Flops: 7.63GFlops
Total MemR+W: 632.52MB

支持環(huán)境:
  • Python 3.6+
  • Pytorch 0.4.0+
  • Pandas 0.23.4+
  • NumPy 1.14.3+
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市壳澳,隨后出現(xiàn)的幾起案子役拴,更是在濱河造成了極大的恐慌,老刑警劉巖钾埂,帶你破解...
    沈念sama閱讀 206,723評論 6 481
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件河闰,死亡現(xiàn)場離奇詭異,居然都是意外死亡褥紫,警方通過查閱死者的電腦和手機姜性,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 88,485評論 2 382
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來髓考,“玉大人部念,你說我怎么就攤上這事“惫剑” “怎么了儡炼?”我有些...
    開封第一講書人閱讀 152,998評論 0 344
  • 文/不壞的土叔 我叫張陵,是天一觀的道長查蓉。 經(jīng)常有香客問我乌询,道長,這世上最難降的妖魔是什么豌研? 我笑而不...
    開封第一講書人閱讀 55,323評論 1 279
  • 正文 為了忘掉前任妹田,我火速辦了婚禮,結(jié)果婚禮上鹃共,老公的妹妹穿的比我還像新娘鬼佣。我一直安慰自己,他們只是感情好霜浴,可當(dāng)我...
    茶點故事閱讀 64,355評論 5 374
  • 文/花漫 我一把揭開白布晶衷。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪晌纫。 梳的紋絲不亂的頭發(fā)上驻龟,一...
    開封第一講書人閱讀 49,079評論 1 285
  • 那天,我揣著相機與錄音缸匪,去河邊找鬼翁狐。 笑死,一個胖子當(dāng)著我的面吹牛凌蔬,可吹牛的內(nèi)容都是我干的露懒。 我是一名探鬼主播,決...
    沈念sama閱讀 38,389評論 3 400
  • 文/蒼蘭香墨 我猛地睜開眼砂心,長吁一口氣:“原來是場噩夢啊……” “哼懈词!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起辩诞,我...
    開封第一講書人閱讀 37,019評論 0 259
  • 序言:老撾萬榮一對情侶失蹤坎弯,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后译暂,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體抠忘,經(jīng)...
    沈念sama閱讀 43,519評論 1 300
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 35,971評論 2 325
  • 正文 我和宋清朗相戀三年外永,在試婚紗的時候發(fā)現(xiàn)自己被綠了崎脉。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 38,100評論 1 333
  • 序言:一個原本活蹦亂跳的男人離奇死亡伯顶,死狀恐怖囚灼,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情祭衩,我是刑警寧澤灶体,帶...
    沈念sama閱讀 33,738評論 4 324
  • 正文 年R本政府宣布,位于F島的核電站掐暮,受9級特大地震影響蝎抽,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜劫乱,卻給世界環(huán)境...
    茶點故事閱讀 39,293評論 3 307
  • 文/蒙蒙 一织中、第九天 我趴在偏房一處隱蔽的房頂上張望锥涕。 院中可真熱鬧衷戈,春花似錦、人聲如沸层坠。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,289評論 0 19
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽破花。三九已至谦趣,卻和暖如春疲吸,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背前鹅。 一陣腳步聲響...
    開封第一講書人閱讀 31,517評論 1 262
  • 我被黑心中介騙來泰國打工摘悴, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人舰绘。 一個月前我還...
    沈念sama閱讀 45,547評論 2 354
  • 正文 我出身青樓蹂喻,卻偏偏與公主長得像,于是被迫代替她去往敵國和親捂寿。 傳聞我的和親對象是個殘疾皇子口四,可洞房花燭夜當(dāng)晚...
    茶點故事閱讀 42,834評論 2 345

推薦閱讀更多精彩內(nèi)容