最近ICLR2019接受論文已經(jīng)公布,最佳論文也跟著亮相了峡竣,這篇是兩篇最佳論文中的其中一篇愧捕,另外一篇是《The Lottery Ticket Hypothesis: Find...
最近ICLR2019接受論文已經(jīng)公布,最佳論文也跟著亮相了峡竣,這篇是兩篇最佳論文中的其中一篇愧捕,另外一篇是《The Lottery Ticket Hypothesis: Find...
@張凡宇 哈哈哈哈哈,我正在看黍檩,然后一邊看一邊補充叉袍。
2019-05-06五一給自己放了7天假期(不要問我是怎么湊出來的,研究生沒啥課了hiahiahia~) 然后回來就很悲劇了刽酱,在返校途中接到導師奪命call問我為什么走的最早來的最晚T.T喳逛,好吧...
轉(zhuǎn)自知乎https://zhuanlan.zhihu.com/p/32230623 首先定義:待優(yōu)化參數(shù):,目標函數(shù):棵里,初始學習率 : 而后润文,開始進行迭代優(yōu)化。在每個epoc...
文章提出了將批處理作為模型本身的一部分殿怜。 批處理的平均損失是對整個數(shù)據(jù)集的估計典蝌;批處理可以利用數(shù)據(jù)并行提高訓練速度。深度學習需要謹慎調(diào)整模型參數(shù)头谜,并且網(wǎng)絡(luò)的初始化參數(shù)也很重要...
17年暑假看過的《機器學習實戰(zhàn)》發(fā)現(xiàn)挺不錯的骏掀,最近拿來繼續(xù)翻一翻,總結(jié)一下數(shù)據(jù)挖掘里經(jīng)典的方法柱告,敲一敲代碼截驮。 簡述: 1、K-NN: 優(yōu)點:精度高际度、對異常值不敏感葵袭,無數(shù)據(jù)輸入...
概述 新型深度模型天天刷屏刷榜,模型日新月異甲脏,做算法的不免感到焦慮眶熬。發(fā)現(xiàn)自己看論文的速度已經(jīng)趕不上他們發(fā)論文的速度了。在此啟發(fā)下块请,想寫一寫自己工作的思考娜氏,面對一個領(lǐng)域,我們?nèi)?..
昨天重新看了一下之前沒怎么看懂的《attention is all you need》墩新,感覺其實挺簡單的贸弥,可以說是 product is all you need了.... ...
論文《Zoom to learn,Learn to zoom》海渊。 本以為是一篇非常有意思的CV中講用深度學習實現(xiàn)變焦的文章绵疲,結(jié)果論文的主要貢獻是三個: 1哲鸳、貢獻了一個新的變焦...