http://blog.codinglabs.org/articles/pca-tutorial.html
看到一篇比較好的將pca的文章呈宇,將原理講得很清楚跟磨,但是理解還是花了不少時(shí)間,現(xiàn)在將理解過程記錄下來
整體思路
原始特征矩陣
為什么將方差最大的方向作為主要特征
可以將一個特征上的很多樣本數(shù)據(jù)攒盈,看成是一個隨機(jī)變量,方差就反映了這個隨機(jī)變量哎榴,相對期望的離散程度型豁,如果方差小,說明尚蝌,大多數(shù)樣本都在均值附近迎变,那么在使用所有特征來對樣本進(jìn)行分類時(shí),這個特征的貢獻(xiàn)非常衅浴(因?yàn)樵谒袠颖局幸滦危@個特征都差不多,沒有什么區(qū)分度)姿鸿,所以就可以忽略掉這個特征谆吴,起到將維的作用。
既然是想要去掉有相關(guān)性的特征苛预,為什么不能直接算原始特征矩陣的協(xié)方差矩陣句狼,然后直接將協(xié)方差排序,然后找打大的協(xié)方差對應(yīng)的兩個特征热某,然后去掉一個呢
這個我理解是腻菇,在原始特征矩陣中,可能各個特征直接沒有那么大的相關(guān)性昔馋,直接去掉一個特征筹吐,數(shù)據(jù)損失可能就太大了,只有將原始矩陣映射到一個完全正交的新矩陣后秘遏,這些組合特征的方差比較小丘薛,才反映出一些原始特征的存在一定程度的相關(guān)性,換句話說垄提,正式因?yàn)槟承┰继卣鞯南嚓P(guān)性榔袋,才使某個變換后的組合特征方差很小,數(shù)值都落到了相對集中的區(qū)域铡俐。