240 發(fā)簡信
IP屬地:廣東
  • [神經(jīng)網(wǎng)絡(luò)這次真的搞懂了!] 系列

    [神經(jīng)網(wǎng)絡(luò)這次真的搞懂了!] (1) 使用神經(jīng)網(wǎng)絡(luò)識別手寫數(shù)字 - 感知器[http://www.reibang.com/p/99766505...

  • Resize,w 360,h 240
    CPU 性能分析工具

    性能分析時柿扣,CPU 通常是首當(dāng)其中的莲镣。 uptime 可供簡單瀏覽袖肥,不推薦在需要精確度的場景使用uptime 用于顯示當(dāng)前系統(tǒng)的運行時間糊治,用戶登...

  • Resize,w 360,h 240
    【深度學(xué)習(xí)實踐】03. 多層感知機

    模型的復(fù)雜度決定了模型的擬合上限境钟,這里的復(fù)雜度通常指模型的深度和每層的神經(jīng)元的個數(shù)沾歪。當(dāng)感知機隱藏層的個數(shù)大于等于1層時诬滩,則稱為多層感知機。 前面...

  • 【深度學(xué)習(xí)實踐】補充02. Label Smoothing

    出自論文:Rethinking the Inception Architecture for Computer Vision[https://a...

  • Resize,w 360,h 240
    【深度學(xué)習(xí)實踐】02. Softmax 回歸

    雖然稱作 Softmax 回歸踩官,但本質(zhì)上 Softmax 處理的是分類問題却桶。分類,顧名思義,即對樣本數(shù)據(jù)集進(jìn)行“哪一個”的解答颖系,通常類別的范圍在...

  • 【深度學(xué)習(xí)實踐】補充01. 批量大小對于數(shù)據(jù)集收斂的影響

    神經(jīng)網(wǎng)絡(luò)對于的調(diào)參主要指超參數(shù)的調(diào)參嗅剖,在眾多超參數(shù)之中,批量大朽叶蟆(Batch Size)占有著舉足輕重的作用信粮。理論上,批量大小決定著單次送進(jìn)神經(jīng)...

  • 【深度學(xué)習(xí)實踐】01. 線性回歸

    線性模型既是機器學(xué)習(xí)中最基礎(chǔ)的學(xué)習(xí)模型趁啸,也是深度神經(jīng)網(wǎng)絡(luò)中的神經(jīng)元基礎(chǔ)强缘。而線性回歸是借助線性模型解決一個或者多個自變量與因變量之間的關(guān)系的問題。...

  • Resize,w 360,h 240
    Inception V3 論文學(xué)習(xí)記錄

    原文:Rethinking the Inception Architecture for Computer Vision[http://arxi...

  • Resize,w 360,h 240
    GoogLeNet(Inception V1)論文學(xué)習(xí)記錄

    原文:Going deeper with convolutions[http://vision.cse.psu.edu/people/chris...

個人介紹
一個想要改變世界的人
亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品