機(jī)器學(xué)習(xí)之特征工程-降維

當(dāng)特征選擇完成后摊欠,可以直接訓(xùn)練模型了,但是可能由于特征矩陣過大俱箱,導(dǎo)致計算量大国瓮,訓(xùn)練時間長的問題,因此降低特征矩陣維度也是必不可少的狞谱。但不要盲目降維乃摹,當(dāng)你在原數(shù)據(jù)上跑到了一個比較好的結(jié)果,又嫌它太慢的時候才進(jìn)行降維跟衅,不然降了半天白降了孵睬。
常見的降維方法有主成分分析法(PCA)線性判別分析(LDA),線性判別分析本身也是一個分類模型伶跷。PCA和LDA有很多的相似點肪康,其本質(zhì)是要將原始的樣本映射到維度更低的樣本空間中,但是PCA和LDA的映射目標(biāo)不一樣:PCA是為了讓映射后的樣本具有最大的發(fā)散性撩穿;而LDA是為了讓映射后的樣本有最好的分類性能磷支。所以說PCA是一種無監(jiān)督的降維方法,而LDA是一種有監(jiān)督的降維方法食寡。

主成分分析法(PCA)

Principal Component Analysis(PCA)是最常用的線性降維方法雾狈,它的目標(biāo)是通過某種線性投影,將高維的數(shù)據(jù)映射到低維的空間中表示抵皱,并期望在所投影的維度上數(shù)據(jù)的方差最大善榛,以此使用較少的數(shù)據(jù)維度,同時保留住較多的原數(shù)據(jù)點的特性呻畸。
通俗的理解移盆,如果把所有的點都映射到一起,那么幾乎所有的信息(如點和點之間的距離關(guān)系)都丟失了伤为,而如果映射后方差盡可能的大咒循,那么數(shù)據(jù)點則會分散開來,以此來保留更多的信息绞愚⌒鸬椋可以證明,PCA是丟失原始數(shù)據(jù)信息最少的一種線性降維方式位衩。(實際上就是最接近原始數(shù)據(jù)裆蒸,但是PCA并不試圖去探索數(shù)據(jù)內(nèi)在結(jié)構(gòu))  
使用decomposition庫的PCA類選擇特征的代碼如下:

from sklearn.decomposition import PCA
#主成分分析法,返回降維后的數(shù)據(jù)
#參數(shù)n_components為主成分?jǐn)?shù)目
PCA(n_components=2).fit_transform(iris.data)

PCA追求的是在降維之后能夠最大化保持?jǐn)?shù)據(jù)的內(nèi)在信息糖驴,并通過衡量在投影方向上的數(shù)據(jù)方差的大小來衡量該方向的重要性僚祷。但是這樣投影以后對數(shù)據(jù)的區(qū)分作用并不大佛致,反而可能使得數(shù)據(jù)點揉雜在一起無法區(qū)分。這也是PCA存在的最大一個問題辙谜,這導(dǎo)致使用PCA在很多情況下的分類效果并不好俺榆。具體可以看下圖所示,若使用PCA將數(shù)據(jù)點投影至一維空間上時筷弦,PCA會選擇2軸,這使得原本很容易區(qū)分的兩簇點被揉雜在一起變得無法區(qū)分抑诸;而這時若選擇1軸將會得到很好的區(qū)分結(jié)果烂琴。



LDA所追求的目標(biāo)與PCA不同,不是希望保持?jǐn)?shù)據(jù)最多的信息蜕乡,而是希望數(shù)據(jù)在降維后能夠很容易地被區(qū)分開來奸绷。后面會介紹LDA的方法,是另一種常見的線性降維方法层玲。

線性判別分析法(LDA)

Linear Discriminant Analysis (也有叫做Fisher Linear Discriminant)是一種有監(jiān)督的(supervised)線性降維算法号醉。與PCA保持?jǐn)?shù)據(jù)信息不同,LDA是為了使得降維后的數(shù)據(jù)點盡可能地容易被區(qū)分辛块!
假設(shè)原始數(shù)據(jù)表示為X畔派,(m*n矩陣,m是維度润绵,n是sample的數(shù)量)
既然是線性的线椰,那么就是希望找到映射向量a, 使得 a‘X后的數(shù)據(jù)點能夠保持以下兩種性質(zhì):

1尘盼、同類的數(shù)據(jù)點盡可能的接近(within class)
2憨愉、不同類的數(shù)據(jù)點盡可能的分開(between class)

所以呢還是上面PCA用的這張圖,如果圖中兩堆點是兩類的話卿捎,那么我們就希望他們能夠投影到軸1去(PCA結(jié)果為軸2)配紫,這樣在一維空間中也是很容易區(qū)分的。



使用lda庫的LDA類選擇特征的代碼如下:

from sklearn.lda import LDA
#線性判別分析法午阵,返回降維后的數(shù)據(jù)
#參數(shù)n_components為降維后的維數(shù)
LDA(n_components=2).fit_transform(iris.data, iris.target)

參考

簡述多種降維算法
四大機(jī)器學(xué)習(xí)降維算法:PCA躺孝、LDA、LLE底桂、Laplacian Eigenmaps

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末括细,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子戚啥,更是在濱河造成了極大的恐慌奋单,老刑警劉巖,帶你破解...
    沈念sama閱讀 206,482評論 6 481
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件猫十,死亡現(xiàn)場離奇詭異览濒,居然都是意外死亡呆盖,警方通過查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 88,377評論 2 382
  • 文/潘曉璐 我一進(jìn)店門贷笛,熙熙樓的掌柜王于貴愁眉苦臉地迎上來应又,“玉大人,你說我怎么就攤上這事乏苦≈昕福” “怎么了?”我有些...
    開封第一講書人閱讀 152,762評論 0 342
  • 文/不壞的土叔 我叫張陵汇荐,是天一觀的道長洞就。 經(jīng)常有香客問我,道長掀淘,這世上最難降的妖魔是什么旬蟋? 我笑而不...
    開封第一講書人閱讀 55,273評論 1 279
  • 正文 為了忘掉前任,我火速辦了婚禮革娄,結(jié)果婚禮上倾贰,老公的妹妹穿的比我還像新娘。我一直安慰自己拦惋,他們只是感情好匆浙,可當(dāng)我...
    茶點故事閱讀 64,289評論 5 373
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著厕妖,像睡著了一般吞彤。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上叹放,一...
    開封第一講書人閱讀 49,046評論 1 285
  • 那天饰恕,我揣著相機(jī)與錄音,去河邊找鬼井仰。 笑死埋嵌,一個胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的俱恶。 我是一名探鬼主播雹嗦,決...
    沈念sama閱讀 38,351評論 3 400
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼合是!你這毒婦竟也來了了罪?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 36,988評論 0 259
  • 序言:老撾萬榮一對情侶失蹤聪全,失蹤者是張志新(化名)和其女友劉穎泊藕,沒想到半個月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體难礼,經(jīng)...
    沈念sama閱讀 43,476評論 1 300
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡娃圆,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 35,948評論 2 324
  • 正文 我和宋清朗相戀三年玫锋,在試婚紗的時候發(fā)現(xiàn)自己被綠了。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片讼呢。...
    茶點故事閱讀 38,064評論 1 333
  • 序言:一個原本活蹦亂跳的男人離奇死亡撩鹿,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出悦屏,到底是詐尸還是另有隱情节沦,我是刑警寧澤,帶...
    沈念sama閱讀 33,712評論 4 323
  • 正文 年R本政府宣布础爬,位于F島的核電站甫贯,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏幕帆。R本人自食惡果不足惜获搏,卻給世界環(huán)境...
    茶點故事閱讀 39,261評論 3 307
  • 文/蒙蒙 一赖条、第九天 我趴在偏房一處隱蔽的房頂上張望失乾。 院中可真熱鬧,春花似錦纬乍、人聲如沸碱茁。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,264評論 0 19
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽纽竣。三九已至,卻和暖如春茧泪,著一層夾襖步出監(jiān)牢的瞬間蜓氨,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 31,486評論 1 262
  • 我被黑心中介騙來泰國打工队伟, 沒想到剛下飛機(jī)就差點兒被人妖公主榨干…… 1. 我叫王不留穴吹,地道東北人。 一個月前我還...
    沈念sama閱讀 45,511評論 2 354
  • 正文 我出身青樓嗜侮,卻偏偏與公主長得像港令,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子锈颗,可洞房花燭夜當(dāng)晚...
    茶點故事閱讀 42,802評論 2 345

推薦閱讀更多精彩內(nèi)容