因?yàn)樽罱谧霎厴I(yè)論文,需要做一部分有關(guān)聚類&貝葉斯分類器的工作渗稍,所以開始啃周志華老師的西瓜書佩迟。
第1章 緒論
若預(yù)測(cè)的是離散值,稱為“分類”classification
(1)只涉及兩個(gè)類別的分類——“二分類” binary classification :正類positive class竿屹、反類negative class
(2)涉及多類別报强,稱為“多分類”multi-class classification
若預(yù)測(cè)的是連續(xù)值,稱為“回歸”regression
聚類 clustering 將訓(xùn)練集中的樣本分成若干組拱燃,每個(gè)組稱為一個(gè)簇cluster
根據(jù)是否有標(biāo)記信息label秉溉,學(xué)習(xí)任務(wù)分為兩類:
監(jiān)督學(xué)習(xí) supervised learning(分類、回歸)
無監(jiān)督學(xué)習(xí) unsupervised learning(聚類)
科學(xué)推理:
歸納induction-> 泛化generalization
演繹deduction->特化specialization
歸納偏好inductive bias
第2章 模型評(píng)估與選擇
error rate 錯(cuò)誤率:分類錯(cuò)誤的樣本數(shù)占樣本總數(shù)的比例(1-精度accuracy)
training error訓(xùn)練誤差/empirical error經(jīng)驗(yàn)誤差:學(xué)習(xí)器在訓(xùn)練集上的誤差
generalization error泛化誤差:在新樣本上的誤差
overfitting過擬合:學(xué)習(xí)器把訓(xùn)練樣本學(xué)得“太好了”,可能已經(jīng)把訓(xùn)練樣本自身的一些一些特點(diǎn)當(dāng)作了所有潛在樣本都會(huì)具有的一般性質(zhì)召嘶,會(huì)導(dǎo)致泛化性能下降父晶。
underfitting欠擬合:對(duì)訓(xùn)練樣本的一般性質(zhì)尚未學(xué)好->解決:在決策樹學(xué)習(xí)中擴(kuò)展分支、在神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)中增加訓(xùn)練輪數(shù)等弄跌。
選擇哪種學(xué)習(xí)算法甲喝、哪種參數(shù)配置?——模型選擇model selection
2.2評(píng)估方法
可通過實(shí)驗(yàn)測(cè)試來對(duì)學(xué)習(xí)器的泛化誤差進(jìn)行評(píng)估并進(jìn)而做出選擇碟绑。
所以俺猿,我們需要一個(gè)測(cè)試集testing set來測(cè)試學(xué)習(xí)器對(duì)新樣本的判別能力,然后以測(cè)試集上的測(cè)試誤差testing error作為泛化誤差的近似格仲。
通常押袍,我們假設(shè)測(cè)試樣本也是從樣本真實(shí)分布中獨(dú)立同分布采樣而得的。
Tips:測(cè)試集應(yīng)當(dāng)盡可能與訓(xùn)練集互斥凯肋,即測(cè)試樣本盡量不在訓(xùn)練集中出現(xiàn)谊惭、未在訓(xùn)練過程中使用過。
->當(dāng)只有有一個(gè)數(shù)據(jù)集時(shí)侮东,既要訓(xùn)練又要測(cè)試->對(duì)數(shù)據(jù)集進(jìn)行恰當(dāng)處理圈盔,產(chǎn)生一個(gè)訓(xùn)練集S和測(cè)試集T,以下為方法:
2.2.1留出法hold-out:直接將數(shù)據(jù)集D劃分為兩個(gè)互斥的集合悄雅,其中一個(gè)集合為訓(xùn)練集驱敲,另一個(gè)為測(cè)試集。
Tips:劃分盡可能保持?jǐn)?shù)據(jù)分布的一致性 (類比采樣sampling中的分層采樣stratified sampling宽闲,保留類別比例)
使用留出法時(shí)要采用若干次隨即劃分众眨、重復(fù)進(jìn)行實(shí)驗(yàn)評(píng)估后取平均值作為留出法的評(píng)估結(jié)果。
劃分比例的權(quán)衡:測(cè)試集較大的時(shí)候容诬,評(píng)估結(jié)果的方差較大娩梨;測(cè)試集較小時(shí),評(píng)估結(jié)果的偏差較大览徒,即保真性fidelity不夠
常見做法:將大約2/3-4/5的樣本用于訓(xùn)練
2.2.2交叉驗(yàn)證法cross validation
先將數(shù)據(jù)集劃分為k個(gè)大小相似的互斥子集狈定,每個(gè)子集盡量保持?jǐn)?shù)據(jù)分布的一致性。每次用k-1個(gè)個(gè)子集 的并集做訓(xùn)練集习蓬,剩下的是測(cè)試集纽什,從而進(jìn)行k組訓(xùn)練和測(cè)試,最終返回k個(gè)測(cè)試結(jié)果的平均值
k是關(guān)鍵躲叼,所以也叫 k折交叉驗(yàn)證(k-fold cross validation) 常常取10
通常隨機(jī)使用不同的劃分方式重復(fù)p次稿湿,最終評(píng)估結(jié)果是p次k折交叉驗(yàn)證結(jié)果的均值。
2.2.3自助法bootstrapping(可以減少訓(xùn)練樣本規(guī)模不同造成的影響押赊,同時(shí)還能比較高效地進(jìn)行實(shí)驗(yàn)估計(jì))饺藤,以自助采樣法bootstrap sampling為基礎(chǔ)
36.8%
Tips.在數(shù)據(jù)集較小包斑、難以有效劃分訓(xùn)練集、測(cè)試集時(shí)有用涕俗,但會(huì)引入統(tǒng)計(jì)偏差
2.2.4 調(diào)參parameter tuning與最終模型
2.3性能度量performance measure——衡量模型泛化能力的評(píng)價(jià)標(biāo)準(zhǔn)
評(píng)估學(xué)習(xí)器f的性能既是吧學(xué)習(xí)器預(yù)測(cè)結(jié)果f(x)與真是標(biāo)記y進(jìn)行比較
回歸任務(wù)常用性能度量——均方誤差 mean squared error
2.3.1錯(cuò)誤率與精度——分類任務(wù)常用罗丰,二分類、多分類均適用
2.3.2差準(zhǔn)率precision=TP/(TP+FP)再姑、查全率recall=TP/(TP+FN)和F1
真正例true positive
假正例false positive
真反例true negative
假反例false negative
查全率和查準(zhǔn)率相互矛盾
平衡點(diǎn)Break-Even Point EBP 度量 查全率=查準(zhǔn)率