240 發(fā)簡信
IP屬地:寧夏
  • 2020-11-30 正則化

    ML 簡介 在ML問題中屹蚊,當(dāng)給定一批數(shù)據(jù)集,我們所要做的就是找到一個函數(shù)(或者一個分布)枕稀,使得當(dāng)給定一個新的輸入X時捐名,可以得出一個準(zhǔn)確輸出Y旦万。在...

  • Resize,w 360,h 240
    2020-11-29 Bathch Normalization

    今天主要想寫一下DeepLearning 中BatchNorm,文章主要主要的大綱為: BN 什么 為什么提出BN BN 的具體細(xì)節(jié)是什么 BN...

  • Resize,w 360,h 240
    Naive RNN & LSTM & GRU

    對于做NLP的新人來說第一個接觸到的模型大概就是RNN镶蹋,RNN 應(yīng)該算是NLP任務(wù)中Hello World了成艘。對于業(yè)界一般說使用RNN指的的LS...

  • Resize,w 360,h 240
    Docker 鏡像加速

    在制作Docker 鏡像時,很有可能會遇到下載速度慢贺归,超時等情況淆两,這種情況其實(shí)和Anaconda 超時的原因一樣,都是由于需要從國外網(wǎng)站下載執(zhí)行...

  • Resize,w 360,h 240
    Anadonda 加速

    Anaconda 對于做數(shù)據(jù)挖掘的同學(xué)說是一個非常重要的工具包拂酣,其中包括了很多數(shù)據(jù)挖掘工具秋冰,但是Anaconda默認(rèn)下載是從國外下載,一般情況是...

  • Python Kafka 樣例

    隨著數(shù)據(jù)挖掘和人工智能的興起婶熬,Python語言逐漸火爆起來剑勾,鑒于現(xiàn)在大量流式數(shù)據(jù)埃撵,Python作為一門熱門語言自然要對接Kafka。 依賴包安裝...

  • Resize,w 360,h 240
    Transformer 閱讀筆記

    Transformer 模型是谷歌大腦在2017年發(fā)表論文 《Attention is all you need 》中所提出的 Seq2Seq ...

  • 2019-06-27 Transformer-XL 筆記

    Transformer-XL是為了解決Transformer 對于Long-term 依賴問題而提出來了虽另,那么Transformer對于Long...

  • 2019-06-15 情感分類中 WordEmbedding

    wordvector NLP 任務(wù)中最基本的運(yùn)算單元應(yīng)該是詞了暂刘,處理的所有詞組成在一起就行成了詞庫,但是詞庫是稀疏的洲赵,所以我們需要將詞轉(zhuǎn)換成計算...

亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品