240 發(fā)簡信
IP屬地:湖北
  • 2020-11-30 正則化

    ML 簡介 在ML問題中庭呜,當給定一批數(shù)據(jù)集建瘫,我們所要做的就是找到一個函數(shù)(或者一個分布)秧饮,使得當給定一個新的輸入X時,可以得出一個準確輸出Y谈跛。在...

  • Resize,w 360,h 240
    2020-11-29 Bathch Normalization

    今天主要想寫一下DeepLearning 中BatchNorm,文章主要主要的大綱為: BN 什么 為什么提出BN BN 的具體細節(jié)是什么 BN...

  • Resize,w 360,h 240
    Naive RNN & LSTM & GRU

    對于做NLP的新人來說第一個接觸到的模型大概就是RNN,RNN 應(yīng)該算是NLP任務(wù)中Hello World了垮卓。對于業(yè)界一般說使用RNN指的的LS...

  • Resize,w 360,h 240
    Docker 鏡像加速

    在制作Docker 鏡像時,很有可能會遇到下載速度慢师幕,超時等情況粟按,這種情況其實和Anaconda 超時的原因一樣诬滩,都是由于需要從國外網(wǎng)站下載執(zhí)行...

  • Resize,w 360,h 240
    Anadonda 加速

    Anaconda 對于做數(shù)據(jù)挖掘的同學說是一個非常重要的工具包,其中包括了很多數(shù)據(jù)挖掘工具灭将,但是Anaconda默認下載是從國外下載疼鸟,一般情況是...

  • Python Kafka 樣例

    隨著數(shù)據(jù)挖掘和人工智能的興起,Python語言逐漸火爆起來庙曙,鑒于現(xiàn)在大量流式數(shù)據(jù)空镜,Python作為一門熱門語言自然要對接Kafka。 依賴包安裝...

  • Resize,w 360,h 240
    Transformer 閱讀筆記

    Transformer 模型是谷歌大腦在2017年發(fā)表論文 《Attention is all you need 》中所提出的 Seq2Seq ...

  • 2019-06-27 Transformer-XL 筆記

    Transformer-XL是為了解決Transformer 對于Long-term 依賴問題而提出來了捌朴,那么Transformer對于Long...

  • 2019-06-15 情感分類中 WordEmbedding

    wordvector NLP 任務(wù)中最基本的運算單元應(yīng)該是詞了吴攒,處理的所有詞組成在一起就行成了詞庫,但是詞庫是稀疏的砂蔽,所以我們需要將詞轉(zhuǎn)換成計算...

亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品