240 發(fā)簡信
IP屬地:上海
  • ICLR 2019 最佳論文《Ordered Neurons: Integrating Tree Structures Into Recurrent Neural Networks》

    最近ICLR2019接受論文已經(jīng)公布,最佳論文也跟著亮相了峡竣,這篇是兩篇最佳論文中的其中一篇愧捕,另外一篇是《The Lottery Ticket Hypothesis: Find...

  • @張凡宇 哈哈哈哈哈,我正在看黍檩,然后一邊看一邊補充叉袍。

    2019-05-06

    五一給自己放了7天假期(不要問我是怎么湊出來的,研究生沒啥課了hiahiahia~) 然后回來就很悲劇了刽酱,在返校途中接到導師奪命call問我為什么走的最早來的最晚T.T喳逛,好吧...

  • 2019-04-28 梯度下降

    轉(zhuǎn)自知乎https://zhuanlan.zhihu.com/p/32230623 首先定義:待優(yōu)化參數(shù):,目標函數(shù):棵里,初始學習率 : 而后润文,開始進行迭代優(yōu)化。在每個epoc...

  • 《Batch Normalization》閱讀筆記

    文章提出了將批處理作為模型本身的一部分殿怜。 批處理的平均損失是對整個數(shù)據(jù)集的估計典蝌;批處理可以利用數(shù)據(jù)并行提高訓練速度。深度學習需要謹慎調(diào)整模型參數(shù)头谜,并且網(wǎng)絡(luò)的初始化參數(shù)也很重要...

  • 120
    2019-04-23 《機器學習實戰(zhàn)》筆記

    17年暑假看過的《機器學習實戰(zhàn)》發(fā)現(xiàn)挺不錯的骏掀,最近拿來繼續(xù)翻一翻,總結(jié)一下數(shù)據(jù)挖掘里經(jīng)典的方法柱告,敲一敲代碼截驮。 簡述: 1、K-NN: 優(yōu)點:精度高际度、對異常值不敏感葵袭,無數(shù)據(jù)輸入...

  • 講人話系列——企業(yè)中的文本分類

    概述 新型深度模型天天刷屏刷榜,模型日新月異甲脏,做算法的不免感到焦慮眶熬。發(fā)現(xiàn)自己看論文的速度已經(jīng)趕不上他們發(fā)論文的速度了。在此啟發(fā)下块请,想寫一寫自己工作的思考娜氏,面對一個領(lǐng)域,我們?nèi)?..

  • 120
    2019-04-22 《Attention Is All You Need》

    昨天重新看了一下之前沒怎么看懂的《attention is all you need》墩新,感覺其實挺簡單的贸弥,可以說是 product is all you need了.... ...

  • 2019-04-19

    論文《Zoom to learn,Learn to zoom》海渊。 本以為是一篇非常有意思的CV中講用深度學習實現(xiàn)變焦的文章绵疲,結(jié)果論文的主要貢獻是三個: 1哲鸳、貢獻了一個新的變焦...

亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品