EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks

文章鏈接:
https://arxiv.org/pdf/1905.11946v2.pdf

motivation

在計(jì)算資源受限的情況下册舞,科學(xué)家們往往需要精心設(shè)計(jì)網(wǎng)絡(luò)模型蕴掏。在往計(jì)算能力更強(qiáng)的計(jì)算環(huán)境進(jìn)行遷移時(shí),我們需要增加模型的運(yùn)算量來提升模型精度调鲸,充分利用計(jì)算資源盛杰。

innovation

一般常見的方法在模型寬度 w, 模型深度l, 模型輸入r 上進(jìn)行研究。本文綜合考慮了三個(gè)方面藐石,提出了簡單而有效的compund coefficient方法即供。

問題定義

一般的神經(jīng)網(wǎng)絡(luò)模型由多個(gè)相似的stage組成(如ResNet),每個(gè)stage中又包含一些常見操作(conv于微,bn逗嫡,relu等),因此一般的模型可以描述為:

N = \bigodot_{i=1}^{s}f_{i}^{L_i}(X_{(H_i, W_i, C_i)})

在不改變模型結(jié)構(gòu)的前提下株依,要擴(kuò)大模型計(jì)算量驱证,我們需要在模型寬度 w, 模型深度l, 模型輸入r 進(jìn)行考慮,形式定義如下:

\begin{eqnarray*} \max_{d,w,r} && Accuracy(N(d,w,r)) \\ s.t. N(d,w,r) &=& \bigodot_{i=1}^{s} \hat{f}_{i}^{\hat{L}_i}(X_{(r*\hat{H}_i, r*\hat{W}_i, w* \hat{C}_i)}) \\ Memory(N) &<=& target_memory \\ FLOPS(N) &<=& target_flops \end{eqnarray*}

兩個(gè)發(fā)現(xiàn)

1 單獨(dú)改變?nèi)齻€(gè)變量中的一個(gè)恋腕,準(zhǔn)確率的增益會(huì)逐漸變小甚至消失抹锄。
2 為了更好地平衡準(zhǔn)確率和效率,需要平衡地改動(dòng)三個(gè)變量荠藤。

發(fā)現(xiàn)一
發(fā)現(xiàn)二

Compound Scaling Method

該文章提出了一個(gè)準(zhǔn)則祈远,只需要按照這個(gè)準(zhǔn)則,就可以非常有限地?cái)U(kuò)大網(wǎng)絡(luò):

\begin{eqnarray*} depth: & d = \alpha^{\phi} \\ width: & w = \beta^{\phi} \\ resolution: & r = \gamma^{\phi} \\ s.t. & \alpha * \beta^2 * \gamma^2 \approx 2 \\ & \alpha \geq 1, \beta \geq 1, \gamma \geq 1 \end{eqnarray*}

\phi是用于控制網(wǎng)絡(luò)計(jì)算量的商源,擴(kuò)大后的網(wǎng)絡(luò)計(jì)算量為原始網(wǎng)絡(luò)的(\alpha * \beta^2 * \gamma ^ 2) ^{\phi} = 2^{\phi}倍车份。

實(shí)驗(yàn)結(jié)果

最后文章在ResNet,mobileNet以及自己搜出的網(wǎng)絡(luò)結(jié)構(gòu)上進(jìn)行了實(shí)驗(yàn)牡彻,實(shí)驗(yàn)結(jié)果比較好扫沼。進(jìn)行的實(shí)驗(yàn)較多出爹,這里就不貼圖了。感興趣的朋友可以去看原文

我的看法

其實(shí)本人并沒有在這個(gè)領(lǐng)域有過研究缎除,只是這篇文章在 Arxiv Sanity上排名較高严就,所以拿過來讀一讀。知乎上的大佬們對這個(gè)有比較深入的探討器罐,大家可以讀一讀梢为。

研究生已經(jīng)過去一年了,自己還是一事無成轰坊。希望能通過這第一篇博客铸董,養(yǎng)成自己規(guī)律讀論文并總結(jié)的習(xí)慣。路漫漫其修遠(yuǎn)兮肴沫,吾將上下而求索粟害。

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市颤芬,隨后出現(xiàn)的幾起案子悲幅,更是在濱河造成了極大的恐慌,老刑警劉巖站蝠,帶你破解...
    沈念sama閱讀 219,188評(píng)論 6 508
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件汰具,死亡現(xiàn)場離奇詭異,居然都是意外死亡菱魔,警方通過查閱死者的電腦和手機(jī)留荔,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,464評(píng)論 3 395
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來豌习,“玉大人存谎,你說我怎么就攤上這事》事。” “怎么了既荚?”我有些...
    開封第一講書人閱讀 165,562評(píng)論 0 356
  • 文/不壞的土叔 我叫張陵,是天一觀的道長栋艳。 經(jīng)常有香客問我恰聘,道長,這世上最難降的妖魔是什么吸占? 我笑而不...
    開封第一講書人閱讀 58,893評(píng)論 1 295
  • 正文 為了忘掉前任晴叨,我火速辦了婚禮,結(jié)果婚禮上矾屯,老公的妹妹穿的比我還像新娘兼蕊。我一直安慰自己,他們只是感情好件蚕,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,917評(píng)論 6 392
  • 文/花漫 我一把揭開白布孙技。 她就那樣靜靜地躺著产禾,像睡著了一般。 火紅的嫁衣襯著肌膚如雪牵啦。 梳的紋絲不亂的頭發(fā)上亚情,一...
    開封第一講書人閱讀 51,708評(píng)論 1 305
  • 那天,我揣著相機(jī)與錄音哈雏,去河邊找鬼楞件。 笑死,一個(gè)胖子當(dāng)著我的面吹牛裳瘪,可吹牛的內(nèi)容都是我干的土浸。 我是一名探鬼主播,決...
    沈念sama閱讀 40,430評(píng)論 3 420
  • 文/蒼蘭香墨 我猛地睜開眼盹愚,長吁一口氣:“原來是場噩夢啊……” “哼栅迄!你這毒婦竟也來了站故?” 一聲冷哼從身側(cè)響起皆怕,我...
    開封第一講書人閱讀 39,342評(píng)論 0 276
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎西篓,沒想到半個(gè)月后愈腾,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,801評(píng)論 1 317
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡岂津,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,976評(píng)論 3 337
  • 正文 我和宋清朗相戀三年虱黄,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片吮成。...
    茶點(diǎn)故事閱讀 40,115評(píng)論 1 351
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡橱乱,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出粱甫,到底是詐尸還是另有隱情泳叠,我是刑警寧澤,帶...
    沈念sama閱讀 35,804評(píng)論 5 346
  • 正文 年R本政府宣布茶宵,位于F島的核電站危纫,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏乌庶。R本人自食惡果不足惜种蝶,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,458評(píng)論 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望瞒大。 院中可真熱鬧螃征,春花似錦、人聲如沸透敌。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,008評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至淌山,卻和暖如春裸燎,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背泼疑。 一陣腳步聲響...
    開封第一講書人閱讀 33,135評(píng)論 1 272
  • 我被黑心中介騙來泰國打工德绿, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人退渗。 一個(gè)月前我還...
    沈念sama閱讀 48,365評(píng)論 3 373
  • 正文 我出身青樓移稳,卻偏偏與公主長得像,于是被迫代替她去往敵國和親会油。 傳聞我的和親對象是個(gè)殘疾皇子个粱,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,055評(píng)論 2 355

推薦閱讀更多精彩內(nèi)容