5.1 循環(huán)神經(jīng)網(wǎng)絡(luò)(時間序列) 循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)用于建模帶有時間關(guān)系的數(shù)據(jù)症副。它的架構(gòu)是這樣的幔虏。 在最基本的 RNN 中,單元(方框)中的...
5.1 循環(huán)神經(jīng)網(wǎng)絡(luò)(時間序列) 循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)用于建模帶有時間關(guān)系的數(shù)據(jù)症副。它的架構(gòu)是這樣的幔虏。 在最基本的 RNN 中,單元(方框)中的...
4.2 多層感知機(jī)回歸(時間序列) 這篇教程中丘逸,我們使用多層感知機(jī)來預(yù)測時間序列犁功,這是回歸問題囚霸。 操作步驟 導(dǎo)入所需的包瞧省。 導(dǎo)入數(shù)據(jù),并進(jìn)行預(yù)處...
4.1 多層感知機(jī)(分類) 這篇文章開始就是深度學(xué)習(xí)了累澡。多層感知機(jī)的架構(gòu)是這樣: 輸入層除了提供數(shù)據(jù)之外翎嫡,不干任何事情。隱層和輸出層的每個節(jié)點都...
遇到非線性可分的數(shù)據(jù)集時永乌,我們需要使用核方法惑申,但為了使用核方法,我們需要返回到拉格朗日對偶的推導(dǎo)過程翅雏,不能簡單地使用 Hinge 損失圈驼。 操作步...
將上一節(jié)的假設(shè)改一改,模型就可以用于回歸問題望几。 操作步驟 導(dǎo)入所需的包绩脆。 導(dǎo)入數(shù)據(jù),并進(jìn)行預(yù)處理橄抹。我們使用鳶尾花數(shù)據(jù)集中的后兩個品種靴迫,根據(jù)萼片長...
在傳統(tǒng)機(jī)器學(xué)習(xí)方法,支持向量機(jī)算是比較厲害的方法楼誓,但是計算過程非常復(fù)雜玉锌。軟間隔支持向量機(jī)通過減弱了其約束,使計算變得簡單疟羹。 操作步驟 導(dǎo)入所需的...
1.4 Softmax 回歸 Softmax 回歸可以看成邏輯回歸在多個類別上的推廣主守。 操作步驟 導(dǎo)入所需的包。 導(dǎo)入數(shù)據(jù)榄融,并進(jìn)行預(yù)處理参淫。我們使...
1.3 邏輯回歸 將線性回歸的模型改一改,就可以用于二分類愧杯。邏輯回歸擬合樣本屬于某個分類涎才,也就是樣本為正樣本的概率。 操作步驟 導(dǎo)入所需的包力九。 ...
1.2 LASSO邑闺、嶺和 Elastic Net 當(dāng)參數(shù)變多的時候,就要考慮使用正則化進(jìn)行限制业扒,防止過擬合检吆。 操作步驟 導(dǎo)入所需的包舒萎。 導(dǎo)入數(shù)據(jù)...
1.1 線性回歸 線性回歸是你能用 TF 搭出來的最簡單的模型程储。 操作步驟 導(dǎo)入所需的包。 導(dǎo)入數(shù)據(jù)臂寝,并進(jìn)行預(yù)處理章鲤。我們使用鳶尾花數(shù)據(jù)集中的后兩...