原理介紹
LDA(Linear Discriminant Analysis):核心思想就是投影后類內(nèi)方差(Qe)最小洒敏,類間方差(Qa)最大
敲霍,它廣泛用于模式識別領(lǐng)域(人臉識別)刑桑,這個LDA要區(qū)別與自然語言處理領(lǐng)域的LDA(Linear DIrihlet Allocation)笨鸡。
上一張圖可能更好理解:
LDA
二分類
假設(shè)我們有數(shù)據(jù)集
[圖片上傳失敗...(image-c327d3-1542949423246)]={(x_1,y_1),(x_2,y_2)\dots(x_m,y_m)})
其中任意Xi為n維向量迫像,且[圖片上傳失敗...(image-ffb57e-1542949423246)]
我們定義Nj(j=0,1)為第j類樣本數(shù)蛀恩,Xj為j類樣本集合敌土,[圖片上傳失敗...(image-57b06d-1542949423246)])為j類樣本均值向量镜硕。圖片上傳失敗...(image-60c2d3-1542949423246)^T\qquad(j=0,1))為j類協(xié)方差矩陣。
由于是兩類數(shù)據(jù)返干,因此我們只需要將數(shù)據(jù)投影到一條直線上即可兴枯。假設(shè)我們的投影直線是向量w,則對任意一個樣本本xi,它在直線w的投影為[圖片上傳失敗...(image-47e754-1542949423246)]對于我們的兩個類別的中心點μ0,μ1,在在直線w的投影為[圖片上傳失敗...(image-a4f355-1542949423246)]和[圖片上傳失敗...(image-e94a3-1542949423246)]由于LDA需要讓不同類別的數(shù)據(jù)的類別中心之間的距離盡可能的大,也就是我們要最大化[圖片上傳失敗...(image-1daf59-1542949423246)]同時我們希望同一種類別數(shù)據(jù)的投影點盡可能的接近矩欠,也就是要同類樣本投影點的協(xié)方差wTΣ0w和wTΣ1w盡可能的小财剖,即最小化[圖片上傳失敗...(image-505a0e-1542949423246)]
綜上所述悠夯,我們的優(yōu)化目標(biāo)為:
[圖片上傳失敗...(image-b5aea4-1542949423246)]=\frac{||wTu_0-wTu_1||}{wT\Sigma_0w+wT\Sigma_1w})
優(yōu)化一下:
[圖片上傳失敗...(image-8450f1-1542949423246)]=\frac{wTS_bw}{wTS_ww})
利用廣義瑞利商的性質(zhì)可以求得解。們的J(w)最大值為矩陣[圖片上傳失敗...(image-810c6a-1542949423246)]的最大特征值躺坟,而對應(yīng)的w為[圖片上傳失敗...(image-2cd8c-1542949423246)]的最大特征值對應(yīng)的特征向量! 而[圖片上傳失敗...(image-105c1c-1542949423246)]的特征值和[圖片上傳失敗...(image-b9f7bf-1542949423246)]的特征值相同,[圖片上傳失敗...(image-d4bc10-1542949423246)]的特征向量w′和[圖片上傳失敗...(image-738b5-1542949423246)]的特征向量w滿足[圖片上傳失敗...(image-75f4e1-1542949423246)]的關(guān)系!
源碼中的實現(xiàn):
案例實現(xiàn):
LDA for iris
import matplotlib.pyplot as plt
from sklearn import datasets
from sklearn.discriminant_analysis import LinearDiscriminantAnalysis
iris = datasets.load_iris()
X = iris.data
y = iris.target
target_names = iris.target_names
lda = LinearDiscriminantAnalysis(n_components=2)
X_r2 = lda.fit(X, y).transform(X)
colors = ['r', 'g', 'y']
plt.figure()
for color, i, target_name in zip(colors, [0, 1, 2], target_names):
plt.scatter(X_r2[y == i, 0], X_r2[y == 1, 1], alpha=.8, c=color, label=target_name)
plt.legend(loc='best', shadow=False, scatterpoints=1)
plt.title('LDA of IRIS dataset')
plt.show()
效果展示:
2018-11-23 12-57-41屏幕截圖.png
相對于上篇PCA on iris的效果好了很多
LDA for hdw_digits
from sklearn import datasets
import numpy as np
import matplotlib.pyplot as plt
from sklearn.discriminant_analysis import LinearDiscriminantAnalysis
from sklearn.preprocessing import scale
from sklearn.cluster import KMeans
np.random.seed(7)
digits = datasets.load_digits()
data = digits.data
labels = digits.target
data = scale(data)
n_samples, n_features = data.shape
n_digits = len(np.unique(labels))
print("n_digits: %d, \t n_samples %d, \t n_features %d" % (n_digits, n_samples, n_features))
reduce_data = LinearDiscriminantAnalysis(n_components=2).fit_transform(data, labels)
kmeans = KMeans(n_clusters=n_digits, init='k-means++', n_init=10)
kmeans.fit(reduce_data)
plt.figure()
plt.clf()
colors = ['b', 'c', 'g', 'k', 'm', 'r', 'navy', 'y', 'darkorange', 'turquoise']
target_names = range(10)
centroids = kmeans.cluster_centers_
for (color, i, target_name) in zip(colors, target_names, target_names):
plt.scatter(reduce_data[labels == i, 0], reduce_data[labels == i, 1], s=2, color=color, lw=2, label=target_name)
plt.legend(loc='best', shadow=False, scatterpoints=1)
plt.scatter(centroids[:, 0], centroids[:, 1], marker='v', s=100, linewidths=3, color=colors, zorder=10)
plt.show()
效果展示:
2018-11-23 13-00-00屏幕截圖.png
我們發(fā)現(xiàn)和PCA&k-means on hdw_digits相比有幾個數(shù)字已經(jīng)分的很開了沦补。