溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

PCA方法的運算過程

發(fā)布時間:2020-06-08 15:45:57 來源:億速云 閱讀:227 作者:Leah 欄目:軟件技術(shù)

這篇文章給大家分享的是有關(guān)PCA方法的運算過程的內(nèi)容。小編覺得挺實用的,因此分享給大家做個參考。一起跟隨小編過來看看吧。

1 引言
在展開數(shù)據(jù)分析工作時,我們經(jīng)常會面臨兩種困境,一種是原始數(shù)據(jù)中特征屬性太少,“巧婦難為無米之炊”,很難挖掘出潛在的規(guī)律,對于這種情況,我們只能在收集這一環(huán)節(jié)上多下功夫;另一種困境剛好相反,那就是特征屬性太多,這真是一種幸福得煩惱,因為特征屬性多就意味著信息量大,可挖掘的價值就大,但另一方面也可能造成過擬合和計算量的急劇增大,對于這一問題,最好的方法就是在預(yù)處理階段對數(shù)據(jù)進行降維。
說到降維,很自然得就想到主成分分析法(Principal Component Analysis,PCA),因為這一方法在眾多降維方法中獨領(lǐng)風騷,應(yīng)用的最為廣泛。主成分分析法是一種無監(jiān)督學(xué)習(xí)方法,它的主要觀點是認為數(shù)據(jù)的特征屬性之間存在線性相關(guān),導(dǎo)致數(shù)據(jù)間的信息冗余,通過正交變換把線性相關(guān)的特征用較少線性無關(guān)的數(shù)據(jù)來表示,以達到降維的目的。
本文接下來的內(nèi)容就對PCA方法進行思想和運算過程等方面由淺入深地展開介紹。

2 算法原理
2.1 最大投影方差法
為方便描述,我們先以二維平面上的數(shù)據(jù)集為例。如下圖所示,有左下至右上45度角斜向上分布。現(xiàn)在,我們要對數(shù)據(jù)集進行降維,因為是二維數(shù)據(jù),所以也只能降到一維,只需要找到一個條合適的坐標軸將數(shù)據(jù)投影過去即可。最簡單地,我們可以將數(shù)據(jù)直接投影到已有的兩個坐標軸上,如如圖(a)(b)所示,這種方法相當于直接舍棄另一特征維度,將直接導(dǎo)致對另一特征維度信息的完全丟失,往往并不可取。降維過程雖然不可避免得會造成信息丟失,但我們卻也希望最大化地保留數(shù)據(jù)的原始信息。既然往已有的坐標軸上投影不可取,那么,我們構(gòu)造新的坐標系,如圖(c)所示,我們沿左下至右上45度角斜向上構(gòu)造出一條y軸,從直覺上判斷我們也會覺得將數(shù)據(jù)投影到這個y軸比直接頭引導(dǎo)x1軸、x2軸更加合適,因為這個時候y軸與數(shù)據(jù)分布最“契合”,數(shù)據(jù)的投影在y軸上最為分散,或者說數(shù)據(jù)在y軸上的投影的方差最大。這就是最大投影方差法,通過這種方法,在投影后的空間中數(shù)據(jù)的方差最大,才能最大化數(shù)據(jù)的差異性,因此可以保留更多的原始數(shù)據(jù)信息。

image

我們從數(shù)學(xué)角度上分析一下為什么方差最大是獲得的新坐標系才是最好的。
如下圖2所示,假設(shè)我們點A、B、C為圖1中數(shù)據(jù)集零均值化化后的樣本點,點A′、B′、C′分別是點A、B、C在旋轉(zhuǎn)后的X1′軸上的投影,O為坐標原點。|AA′|表示原坐標點A到X1′軸上投影A′的距離,又被稱為投影誤差。顯然,投影誤差越小,A與A′相似度越大,那么投影后的數(shù)據(jù)就保留了更多的信息,所以投影誤差越小越好,等價地,對各樣本點投影誤差的平方和|AA′|2+|BB′|2+|CC′|2也越大越好。因為斜邊的長度|OA|、|OB|、|OC|是固定的,結(jié)合勾股定理可知,|AA′|2+|BB′|2+|CC′|2+|OA′|2+|OB′|2+|OC′|2的大小也是保持不變的,這就意味著,投影誤差越小,|OA′|2+|OB′|2+|OC′|2就越大。其實,|OA′|2+|OB′|2+|OC′|2就是樣本方差和,所以說,方差最大是獲得的新坐標系最好。

image

現(xiàn)在,我們知道了怎么確定最優(yōu)的方向進行投影的問題,不過還有問題沒有解決:
(1)上面的講述都是以二維數(shù)據(jù)為例子,對于二維數(shù)據(jù)的降維,當然只需要找到一個維度或者說一條坐標軸進行投影即可,如果是更高維度的數(shù)據(jù)進行降維時,就不可能都降為一維,這時候可就需要尋找到多條坐標軸來來投影,如果尋找第一個維度時,使用方差最大化投影當然沒問題,但是,如果在尋找第二個維度時,仍然堅持方差最大化,那么第二個維度的坐標軸就回與第一個維度的坐標做基本重合,這樣投影后的數(shù)據(jù)相關(guān)性極大,是沒有意義的。那么,對于高維度數(shù)據(jù)降維,要如何確定多個維度坐標軸呢?
(2)找到了新的坐標系后,怎么將原始數(shù)據(jù)映射到新的坐標系中呢?
帶著這兩個問題,我們繼續(xù)往下分析。

2.2 協(xié)方差矩陣
PCA算法降維的主要通過是降低原始數(shù)據(jù)中的冗余信息來實現(xiàn)的,這里的冗余信息指的是數(shù)據(jù)集中不同特征屬性間的相關(guān)性,例如工作時長、學(xué)歷、薪資待遇這三個屬性,這確實是三個不同的特征屬性,但無論是工作時長還是學(xué)歷都跟薪資待遇之間存在一定影響,在大多數(shù)情況下,工作時長越長、學(xué)歷越高薪資待遇就越高。所以,工作時長、學(xué)歷與薪資待遇是存在相關(guān)性的,PCA算法目標就是消除這些相關(guān)性達到降維的目的。
對于相關(guān)性,在數(shù)學(xué)上通常用協(xié)方差來進行描述。假設(shè)數(shù)據(jù)集X是包含n個樣本,m個特征屬性,xi和xj分別是數(shù)據(jù)集X中的兩個不同的特征屬性,那么xi和xj之間的協(xié)方差為:
Cov(xi,xj)=1n?1?∑nk=1(xik?xˉi)(xjk?xˉj)
式中,xik,xjk表示xi、xj的第k個樣本在兩個特征屬性中的取值,xˉi、xˉj分別是xi,xj的均值。
協(xié)方差取值區(qū)間為[?1,1],協(xié)方差絕對值越大兩特征屬性相關(guān)性越大,當協(xié)方差小于0時,表示兩個特征屬性呈負相關(guān),當協(xié)方差大于0時,表示兩個特征屬性呈正相關(guān),當協(xié)方差為0時,表示量特征屬性不相關(guān),在線性代數(shù)上,這兩個特征屬性時正交的。
特殊地,Cov(xi,xi)表示特征屬性xi的方差。
通過上一小節(jié),我們知道,降維時選擇第一個投影方向是通過方差最大化進行選取,選取后續(xù)為投影方向時,我們就不可能再讓降維后的各維度數(shù)據(jù)間還存在相關(guān)性,所以,在選取后續(xù)維度時需要在滿足與所有已選取投影方向正交,即協(xié)方差為0的前提下,選取方差最大的方向??偨Y(jié)一下降維的過程,假如我們需要從m維降到k維,首先要在所有可能方向中選取一個投影方差最大的方向作為第一個維度,然后在所有與第一個維度正交的方向中選取一個方差最大的方向作為第二個維度方向,重復(fù)這一步驟,直到選取了k個維度。
可以看出,在整個降維過程中,既要計算方差,也要計算特征屬性兩兩之間的協(xié)方差,有沒有什么方法將兩者統(tǒng)一到一起呢?有,協(xié)方差矩陣。 協(xié)方差矩陣中每一個元素對應(yīng)兩個特征屬性間的協(xié)方差,例如第i行第j列元素表示第i個特征屬性與第j個特征屬性間的協(xié)方差;協(xié)方差矩陣對角線上的元素,當i=j時,表示第i個特征屬性的方差。數(shù)據(jù)集X的協(xié)方差矩陣表示為: image

仔細觀察協(xié)方差矩陣,可以發(fā)現(xiàn)協(xié)方差矩陣是實對稱矩陣,實對稱矩陣剛好有一些很好的性質(zhì)可以被利用:
(1)實對稱矩陣必可對角化,且其相似對角矩陣的對角線元素為m個特征值
(2)實對稱矩陣的特征值是實數(shù),特征向量是實向量
(3)實對稱矩陣的不同特征值對應(yīng)的特征向量是正交的
請務(wù)必注意,這三個性質(zhì)很重要,不理解沒關(guān)系,記住就好,接下來的內(nèi)容都必須以這三個性質(zhì)為基礎(chǔ)。因為特征值對應(yīng)的特征向量就是理想中想取得正確的坐標軸的基,而特征值就等于數(shù)據(jù)在投影之后的坐標上的方差。所以有了協(xié)方差矩陣,接下來要做的,就是將協(xié)方差矩陣對角化,這個對角化的過程可以理解為是對來原坐標軸的旋轉(zhuǎn)即尋找最佳投影坐標軸的過程,通過對角化的過程可以讓除對角元素外的所有元素為零,也就是協(xié)方差為零,各特征屬性將將變得不相關(guān)。當協(xié)方差矩陣對角化之后,對角元素就是特征值,也是各投影后坐標軸上的方差,我們選取最大的一個特征值對應(yīng)的特征向量作為基,對原始數(shù)據(jù)進行變換,就可以用獲得原始數(shù)據(jù)在新坐標軸上的投影。
我們大概描述一下這個坐標變換的原理。在機器學(xué)習(xí)中,我們喜歡用向量和矩陣來表示數(shù)據(jù),因為向量和矩陣有很多很好的數(shù)學(xué)性質(zhì),可以很方便的進行數(shù)學(xué)運算。如下圖3所示,從圖1所示數(shù)據(jù)集中取一點,假設(shè)坐標為(3,1),那么我們可以表示為以原點為起點以點(3,1)為終點的一個箭頭,這個箭頭在x1軸上投影為3,在x2軸三的投影是1。我們可以這么理解,有一個向量在兩條坐標軸上的投影分別為x1,x2,那么該向量又可以表示為:x1?(1,0)T+x2?(0,1)T,這里的(1,0)和(0,1)就是下圖黑色直角坐標系的一組基。對于基,可以粗淺的理解為坐標軸的基礎(chǔ),有了基,坐標才有意義,在大多數(shù)情況下,我們都默認以(1,0)和(0,1)這對相互正交且模長為1向量為基。如果我們對黑色直角坐標系逆時針旋轉(zhuǎn)45就得到了一個新的坐標系,這個坐標系的基為(12√,12√)和(?12√,12√),這類我們不深入討論這個基是怎么得來的,反正在PCA方法中通過協(xié)方差對角化之后多的的特征值對應(yīng)特征向量就是新坐標系的基。有了新坐標系的基,怎么將原坐標系的坐標轉(zhuǎn)換的用新坐標系表示呢?其實我們只需要對新坐標系的基與原坐標系中的坐標進行內(nèi)積運算即可:將原坐標與兩個基做內(nèi)積運算,獲得的兩個結(jié)果分別作為新坐標系的第一個坐標和第二個坐標,這個過程叫做基變換,我們用矩陣運算來表示這個過程:

image

所以點(3,1)在新坐標系中的坐標為(42√,?2–√)。這種基變換的方式也適用于更加多維的情況,因為兩個矩陣相乘本質(zhì)就是一種線性變換,也可以理解為將游標矩陣中的每一列列向量變換到左邊矩陣中每一行行行向量為基坐標是的空間中去。

image

總結(jié)來說,完成對角化之后,矩陣中對角線上元素就是特征值,也是尋找到的眾多坐標軸的投影方差,每次從中去所有特征值中最大的一個,然后求對應(yīng)的特征向量,這個特征向量就是對應(yīng)的新坐標軸的基,用這個基于原始數(shù)據(jù)做內(nèi)積運算就可以得到原始數(shù)據(jù)在新坐標軸上的投影,重復(fù)這個過程k次,就完成可降維。
將上文中所有內(nèi)容囊括在一起,那么,主成分分析法就概括為以下5各步驟:
(1) 零平均值,在很多情況下,為了去除量綱的影響,最好直接標準化。
(2) 計算協(xié)方差矩陣。
(3) 協(xié)方差矩陣對角化,求特征值。
(4) 對特征值從大到小排序,選擇其中最大的k個,然后求其對應(yīng)的k個特征向量分別作為行向量組成特征向量矩陣P。
(5) 將k個特征向量作為新的坐標系的基對原始數(shù)據(jù)進行變換。

3 總結(jié)
PCA算法是一種無監(jiān)督學(xué)習(xí)方法,只需要對數(shù)據(jù)集本身的特征屬性進行運算,消除相關(guān)性達到壓縮數(shù)據(jù)去噪降維的目的。 PCA算法的主要優(yōu)點有:
(1)僅僅需要以方差衡量信息量,不受數(shù)據(jù)集以外的因素影響。
(2)各主成分之間正交,可消除原始數(shù)據(jù)成分間的相互影響的因素。
(3)計算方法簡單,易于實現(xiàn)。
PCA算法的主要缺點有:
(1)主成分各個特征維度的含義不在具有實際的物理意義,所以不如原始樣本特征的解釋性強。
(2)方差小的非主成分也可能含有對樣本差異的重要信息,因降維丟棄可能對后續(xù)數(shù)據(jù)處理有影響。

關(guān)于PCA方法的運算過程就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,可以學(xué)到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。

向AI問一下細節(jié)

免責聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI