您好,登錄后才能下訂單哦!
本文小編為大家詳細介紹“Python層次聚類怎么應用”,內(nèi)容詳細,步驟清晰,細節(jié)處理妥當,希望這篇“Python層次聚類怎么應用”文章能幫助大家解決疑惑,下面跟著小編的思路慢慢深入,一起來學習新知識吧。
K-means 工作原理可以簡要概述為:
決定簇數(shù)(k)
從數(shù)據(jù)中隨機選取 k 個點作為質(zhì)心
將所有點分配到最近的聚類質(zhì)心
計算新形成的簇的質(zhì)心
重復步驟 3 和 4
這是一個迭代過程,直到新形成的簇的質(zhì)心不變,或者達到最大迭代次數(shù)。
但是 K-means 是存在一些缺點的,我們必須在算法開始前就決定簇數(shù) K 的數(shù)量,但實際我們并不知道應該有多少個簇,所以一般都是根據(jù)自己的理解先設定一個值,這就可能導致我們的理解和實際情況存在一些偏差。
層次聚類完全不同,它不需要我們開始的時候指定簇數(shù),而是先完整的形成整個層次聚類后,通過決定合適的距離,自動就可以找到對應的簇數(shù)和聚類。
下面我們由淺及深的介紹什么是層次聚類,先來一個簡單的例子。
假設我們有以下幾點,我們想將它們分組:
我們可以將這些點中的每一個分配給一個單獨的簇,就是4個簇(4種顏色):
然后基于這些簇的相似性(距離),將最相似的(距離最近的)點組合在一起并重復這個過程,直到只剩下一個集群:
上面本質(zhì)上就是在構(gòu)建一個層次結(jié)構(gòu)。先了解到這里,后面我們詳細介紹它的分層步驟。
主要有兩種類型的層次聚類:
凝聚層次聚類
分裂層次聚類
先讓所有點分別成為一個單獨的簇,然后通過相似性不斷組合,直到最后只有一個簇為止,這就是凝聚層次聚類的過程,和我們上面剛剛說的一致。
分裂層次聚類正好反過來,它是從單個集群開始逐步分裂,直到無法分裂,即每個點都是一個簇。
所以無論是 10、100、1000 個數(shù)據(jù)點都不重要,這些點在開始的時候都屬于同一個簇:
現(xiàn)在,在每次迭代中拆分簇中相隔最遠的兩點,并重復這個過程,直到每個簇只包含一個點:
上面的過程就是分裂層次聚類。
上面已經(jīng)說了層次聚類的大概過程,那關鍵的來了,如何確定點和點的相似性呢?
這是聚類中最重要的問題之一了,一般計算相似度的方法是:計算這些簇的質(zhì)心之間的距離。距離最小的點稱為相似點,我們可以合并它們,也可以將其稱為基于距離的算法。
另外在層次聚類中,還有一個稱為鄰近矩陣的概念,它存儲了每個點之間的距離。下面我們通過一個例子來理解如何計算相似度、鄰近矩陣、以及層次聚類的具體步驟。
假設一位老師想要將學生分成不同的組?,F(xiàn)在有每個學生在作業(yè)中的分數(shù),想根據(jù)這些分數(shù)將他們分成幾組。關于擁有多少組,這里沒有固定的目標。由于老師不知道應該將哪種類型的學生分配到哪個組,因此不能作為監(jiān)督學習問題來解決。下面,我們將嘗試應用層次聚類將學生分成不同的組。
下面是個5名學生的成績:
首先,我們要創(chuàng)建一個鄰近矩陣,它儲存了每個點兩兩之間的距離,因此可以得到一個形狀為 n X n 的方陣。
這個案例中,可以得到以下 5 x 5 的鄰近矩陣:
矩陣里有兩點需要注意下:
矩陣的對角元素始終為 0,因為點與其自身的距離始終為 0
使用歐幾里得距離公式來計算非對角元素的距離
比如,我們要計算點 1 和 2 之間的距離,計算公式為:
同理,按此計算方法完成后填充鄰近矩陣其余元素。
這里使用凝聚層次聚類來實現(xiàn)。
步驟 1:首先,我們將所有點分配成單個簇:
這里不同的顏色代表不同的簇,我們數(shù)據(jù)中的 5 個點,即有 5 個不同的簇。
步驟2:接下來,我們需要查找鄰近矩陣中的最小距離并合并距離最小的點。然后我們更新鄰近矩陣:
最小距離是 3,因此我們將合并點 1 和 2:
讓我們看看更新的集群并相應地更新鄰近矩陣:
更新之后,我們?nèi)×?、2 兩個點中值 (7, 10) 最大的來替換這個簇的值。當然除了最大值之外,我們還可以取最小值或平均值。然后,我們將再次計算這些簇的鄰近矩陣:
第 3 步:重復第 2 步,直到只剩下一個簇。
重復所有的步驟后,我們將得到如下所示的合并的聚類:
這就是凝聚層次聚類的工作原理。但問題是我們?nèi)匀徊恢涝摲謳捉M?是2、3、還是4組呢?
下面開始介紹如何選擇聚類數(shù)。
為了獲得層次聚類的簇數(shù),我們使用了一個概念,叫作樹狀圖。
通過樹狀圖,我們可以更方便的選出聚類的簇數(shù)。
回到上面的例子。當我們合并兩個簇時,樹狀圖會相應地記錄這些簇之間的距離并以圖形形式表示。下面這個是樹狀圖的原始狀態(tài),橫坐標記錄了每個點的標記,縱軸記錄了點和點之間的距離:
當合并兩個簇時,將會在樹狀圖中連接起來,連接的高度就是點之間的距離。下面是我們剛剛層次聚類的過程。
然后開始對上面的過程進行樹狀圖的繪制。從合并樣本 1 和 2 開始,這兩個樣本之間的距離為 3。
可以看到已經(jīng)合并了 1 和 2。垂直線代表 1 和 2 的距離。同理,按照層次聚類過程繪制合并簇類的所有步驟,最后得到了這樣的樹狀圖:
通過樹狀圖,我們可以清楚地形象化層次聚類的步驟。樹狀圖中垂直線的距離越遠代表簇之間的距離越大。
有了這個樹狀圖,我們決定簇類數(shù)就方便多了。
現(xiàn)在我們可以設置一個閾值距離,繪制一條水平線。比如我們將閾值設置為 12,并繪制一條水平線,如下:
從交點中可以看到,聚類的數(shù)量就是與閾值水平線與垂直線相交的數(shù)量(紅線與 2 條垂直線相交,我們將有 2 個簇)。與橫坐標相對應的,一個簇將有一個樣本集合為 (1,2,4),另一個集群將有一個樣本集合 (3,5)。
這樣,我們就通過樹狀圖解決了分層聚類中要決定聚類的數(shù)量。
上面是理論基礎,有點數(shù)學基礎都能看懂。下面介紹下在如何用代碼Python來實現(xiàn)這一過程。這里拿一個客戶細分的數(shù)據(jù)來展示一下。
這個數(shù)據(jù)來源于UCI 機器學習庫。我們的目的是根據(jù)批發(fā)分銷商的客戶在不同產(chǎn)品類別(如牛奶、雜貨、地區(qū)等)上的年度支出,對他們進行細分。
首先對數(shù)據(jù)進行一個標準化,為了讓所有數(shù)據(jù)在同一個維度便于計算,然后應用層次聚類來細分客戶。
from sklearn.preprocessing import normalize data_scaled = normalize(data) data_scaled = pd.DataFrame(data_scaled, columns=data.columns) import scipy.cluster.hierarchy as shc plt.figure(figsize=(10, 7)) plt.title("Dendrograms") dend = shc.dendrogram(shc.linkage(data_scaled, method='ward'))
x 軸包含了所有樣本,y 軸代表這些樣本之間的距離。距離最大的垂直線是藍線,假如我們決定要以閾值 6 切割樹狀圖:
plt.figure(figsize=(10, 7)) plt.title("Dendrograms") dend = shc.dendrogram(shc.linkage(data_scaled, method='ward')) plt.axhline(y=6, color='r', linestyle='--')
現(xiàn)在我們有兩個簇了,我們要對這 2 個簇應用層次聚類:
from sklearn.cluster import AgglomerativeClustering cluster = AgglomerativeClustering(n_clusters=2, affinity='euclidean', linkage='ward') cluster.fit_predict(data_scaled)
由于我們定義了 2 個簇,因此我們可以在輸出中看到 0 和 1 的值。0 代表屬于第一個簇的點,1 代表屬于第二個簇的點。
plt.figure(figsize=(10, 7)) plt.scatter(data_scaled['Milk'], data_scaled['Grocery'], c=cluster.labels_)
讀到這里,這篇“Python層次聚類怎么應用”文章已經(jīng)介紹完畢,想要掌握這篇文章的知識點還需要大家自己動手實踐使用過才能領會,如果想了解更多相關內(nèi)容的文章,歡迎關注億速云行業(yè)資訊頻道。
免責聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。