以下內(nèi)容為轉(zhuǎn)發(fā)Hulu公眾號(hào)的鏈接,更全內(nèi)容可查看書籍
- 0 序
- 1 模型評(píng)估
- 2 SVM模型
- 3 優(yōu)化簡介
- 4 采樣
- 5 余弦距離
- 6 PCA算法
- 7 非監(jiān)督學(xué)習(xí)算法與評(píng)估
- 8 強(qiáng)化學(xué)習(xí)(一)呵俏,強(qiáng)化學(xué)習(xí)(二)
- 9 循環(huán)神經(jīng)網(wǎng)絡(luò)
- 10 LSTM
- 11 Seq2Seq
- 12 注意力機(jī)制
- 13 集成學(xué)習(xí)
- 14 如何對(duì)高斯分布進(jìn)行采樣
- 15 多層感知機(jī)與布爾函數(shù)
- 16 經(jīng)典優(yōu)化算法
- 17 隨機(jī)梯度下降算法之經(jīng)典變種
- 18 SVM—核函數(shù)與松弛變量
- 19 主題模型
- 20 PCA最小平方誤差理論
- 21 分類、排序、回歸模型的評(píng)估
- 22 特征工程—結(jié)構(gòu)化數(shù)據(jù)
- 23 神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的批量歸一化
- 24 隨機(jī)梯度下降法
- 25 初識(shí)生成式對(duì)抗網(wǎng)絡(luò)(GANs)
- 26 隱馬爾科夫模型
- 27 自組織映射神經(jīng)網(wǎng)絡(luò)
- 28 概率圖模型
- 29 WGANs:抓住低維的幽靈
- 30 常見的采樣方法