240 發(fā)簡信
IP屬地:上海
  • ICLR 2019 最佳論文《Ordered Neurons: Integrating Tree Structures Into Recurrent Neural Networks》

    最近ICLR2019接受論文已經(jīng)公布,最佳論文也跟著亮相了炊琉,這篇是兩篇最佳論文中的其中一篇浆西,另外一篇是《The Lottery Ticket H...

  • 2019-04-28 梯度下降

    轉自知乎https://zhuanlan.zhihu.com/p/32230623 首先定義:待優(yōu)化參數(shù):土全,目標函數(shù):絮吵,初始學習率 : 而后摆霉,開...

  • 《Batch Normalization》閱讀筆記

    文章提出了將批處理作為模型本身的一部分仔燕。 批處理的平均損失是對整個數(shù)據(jù)集的估計舟误;批處理可以利用數(shù)據(jù)并行提高訓練速度葡秒。深度學習需要謹慎調整模型參數(shù)...

  • Resize,w 360,h 240
    2019-04-23 《機器學習實戰(zhàn)》筆記

    17年暑假看過的《機器學習實戰(zhàn)》發(fā)現(xiàn)挺不錯的,最近拿來繼續(xù)翻一翻,總結一下數(shù)據(jù)挖掘里經(jīng)典的方法眯牧,敲一敲代碼蹋岩。 簡述: 1、K-NN: 優(yōu)點:精度...

  • Resize,w 360,h 240
    2019-04-22 《Attention Is All You Need》

    昨天重新看了一下之前沒怎么看懂的《attention is all you need》学少,感覺其實挺簡單的剪个,可以說是 product is all...

  • 2019-04-19

    論文《Zoom to learn,Learn to zoom》版确。 本以為是一篇非常有意思的CV中講用深度學習實現(xiàn)變焦的文章扣囊,結果論文的主要貢獻是...

亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品