240 發(fā)簡信
IP屬地:廣東
  • Resize,w 360,h 240
    Vanilla VAE

    Vanilla VAE(Variational Autoencoder) 一、AutoEncoder 回顧 生成模型 最理想的生成就是知道輸入樣...

  • mysql事務隔離級別的實現(xiàn)原理

    mysql事務隔離級別的實現(xiàn)原理 mysql innodb中的四種事務隔離級別[http://www.reibang.com/p/1fc97a...

  • Java 泛型

    java 泛型 很多朋友對java的泛型不是很理解伐谈,很多文章寫的已不是很清楚稚新,這篇博客對java泛型進行 一個總結。 1.泛型的轉(zhuǎn)換 List<...

  • Resize,w 360,h 240
    機器學習基礎之交叉熵與均方誤差

    機器學習基礎之交叉熵與均方誤差 我們都知道,對于分類任務,可以選用交叉熵做為模型的損失函數(shù);對于回歸任務朽合,可以選用MSE來作為模型的損失函數(shù)俱两。那...

  • 機器學習基礎之參數(shù)估計

    機器學習基礎之參數(shù)估計 一、參數(shù)估計 對所要研究的隨機變量旁舰,當它的概率分布的類型已知锋华,但是參數(shù)未知,比如服從正太分布箭窜。但是這兩個參數(shù)未知毯焕。那么這...

  • Resize,w 360,h 240
    Transformer in pytorch

    一 Transformer overview 本文結合pytorch源碼以盡可能簡潔的方式把Transformer的工作流程講解以及原理講解清楚...

  • Resize,w 360,h 240
    機器學習基礎之反向傳播

    機器學習基礎二-反向傳播 神經(jīng)網(wǎng)絡之所以可以訓練,得益于與Hinton在1986年提出的反向傳播算法磺樱。反向傳播背后的數(shù)學原理就是鏈式法則纳猫。本文會...

  • Resize,w 360,h 240
    Transformer研究綜述

    一、基礎部分 ??2017年google發(fā)表了一篇All Attention Is All You Need論文, 在機器翻譯任務中取得了SOT...

  • Resize,w 360,h 240
    梯度下降優(yōu)化方法概述

    梯度下降是優(yōu)化神經(jīng)網(wǎng)絡和機器機器學習算法的首選優(yōu)化方法竹捉。本文重度參考SEBASTIAN RUDER[https://ruder.io/optim...

亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品