K-means類聚算法(K-means clustering)是一種原理簡單互婿、功能強(qiáng)大且應(yīng)用廣泛的無監(jiān)督機(jī)器學(xué)習(xí)技術(shù)俘枫。無監(jiān)督機(jī)器學(xué)習(xí)技術(shù)是指無需標(biāo)簽即可從數(shù)據(jù)集中做推理,得到推理結(jié)果。
K-means類聚算法的目標(biāo)是將數(shù)據(jù)集中的數(shù)據(jù)根據(jù)相似性分類玄柏,類別數(shù)為k纬傲,每類會有一個聚類中心(centroid)满败。數(shù)據(jù)間的相似性通常用“歐幾里得距離(Euclidean Distance)”來定義,當(dāng)然也可以設(shè)計(jì)其它的度量方式叹括。
K-means 的算法步驟為:
- 定義目標(biāo)聚類數(shù)K算墨,例如,k=3
- 隨機(jī)初始化的 k 個聚類中心(controids)
- 計(jì)算每個數(shù)據(jù)點(diǎn)到K個聚類中心的Euclidean Distance汁雷,然后將數(shù)據(jù)點(diǎn)分到Euclidean Distance最小的對應(yīng)類聚中心的那類
- 針對每個類別净嘀,重新計(jì)算它的聚類中心;
- 重復(fù)上面 3-4 兩步操作侠讯,直到達(dá)到某個中止條件(迭代次數(shù)挖藏、最小誤差變化等)
K-means算法的可視化,請參考:https://stanford.edu/class/engr108/visualizations/kmeans/kmeans.html
K-means算法的可視化
K-means算法可以直接調(diào)用sklearn的KMeans類來實(shí)現(xiàn)厢漩,范例代碼如下:
import pandas as pd
import matplotlib.pyplot as plt
from sklearn.cluster import KMeans
df = pd.DataFrame({"x": [25, 34, 22, 27, 33, 33, 31, 22, 35, 34, 67, 54, 57, 43, 50, 57, 59, 52, 65, 47, 49, 48, 35, 33, 44, 45, 38, 43, 51, 46],
"y": [79, 51, 53, 78, 59, 74, 73, 57, 69, 75, 51, 32, 40, 47, 53, 36, 35, 59, 59, 50, 25, 20, 14, 12, 20, 5, 29, 27, 8, 7]
})
kmeans = KMeans(n_clusters=3).fit(df)
centroids = kmeans.cluster_centers_
# 打印類聚中心
print(type(centroids), centroids)
# 可視化類聚結(jié)果
fig, ax = plt.subplots()
ax.scatter(df['x'],df['y'],c=kmeans.labels_.astype(float),s=50, alpha=0.5)
ax.scatter(centroids[:, 0], centroids[:, 1], c='red', s=50)
plt.show()
K-means范例運(yùn)行結(jié)果