溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

線性回歸中的L1與L2正則化

發(fā)布時間:2021-12-29 17:10:47 來源:億速云 閱讀:136 作者:小新 欄目:大數(shù)據(jù)

這篇文章給大家分享的是有關線性回歸中的L1與L2正則化的內容。小編覺得挺實用的,因此分享給大家做個參考,一起跟隨小編過來看看吧。

描述回歸建模中的L1和L2正則化方法。

在處理復雜數(shù)據(jù)時,我們往往會創(chuàng)建復雜的模型。太復雜并不總是好的。過于復雜的模型就是我們所說的“過擬合”,它們在訓練數(shù)據(jù)上表現(xiàn)很好,但在看不見的測試數(shù)據(jù)上卻表現(xiàn)不佳。

有一種方法可以對損失函數(shù)的過擬合進行調整,那就是懲罰。通過懲罰或“正則化”損失函數(shù)中的大系數(shù),我們使一些(或所有)系數(shù)變小,從而使模型對數(shù)據(jù)中的噪聲不敏感。

在回歸中使用的兩種流行的正則化形式是L1又名Lasso回歸,和L2又名Ridge回歸。在線性回歸中我們使用普通最小二乘(OLS)是用于擬合數(shù)據(jù)的:我們對殘差(實際值與預測值之間的差異)進行平方,以得到均方誤差(MSE)。最小的平方誤差,或最小的平方,是最適合的模型。

線性回歸中的L1與L2正則化

讓我們來看看簡單線性回歸的成本函數(shù):

線性回歸中的L1與L2正則化

對于多元線性回歸,成本函數(shù)應該是這樣的,其中????是預測因子或變量的數(shù)量。

線性回歸中的L1與L2正則化

因此,隨著預測器(????)數(shù)量的增加,模型的復雜性也會增加。為了緩解這種情況,我們在這個成本函數(shù)中添加了一些懲罰形式。這將降低模型的復雜性,有助于防止過擬合,可能消除變量,甚至減少數(shù)據(jù)中的多重共線性。

L2 -嶺回歸

L2或嶺回歸,將????懲罰項添加到系數(shù)大小的平方????。????是一個超參數(shù),這意味著它的值是自由定義的。你可以在成本函數(shù)的末端看到它。

線性回歸中的L1與L2正則化

加上????懲罰,????系數(shù)受到約束,懲罰系數(shù)大的代價函數(shù)。

L1 -Lasso回歸

L1或Lasso回歸,幾乎是一樣的東西,除了一個重要的細節(jié)-系數(shù)的大小不是平方,它只是絕對值。

線性回歸中的L1與L2正則化

在這里,成本函數(shù)的最后是????的絕對值,一些系數(shù)可以被精確地設置為零,而其他的系數(shù)則直接降低到零。當一些系數(shù)變?yōu)榱銜r,Lasso回歸的效果是特別有用的,因為它可以估算成本并同時選擇系數(shù)。。

還有最重要的一點,在進行任何一種類型的正則化之前,都應該將數(shù)據(jù)標準化到相同的規(guī)模,否則罰款將不公平地對待某些系數(shù)。

感謝各位的閱讀!關于“線性回歸中的L1與L2正則化”這篇文章就分享到這里了,希望以上內容可以對大家有一定的幫助,讓大家可以學到更多知識,如果覺得文章不錯,可以把它分享出去讓更多的人看到吧!

向AI問一下細節(jié)

免責聲明:本站發(fā)布的內容(圖片、視頻和文字)以原創(chuàng)、轉載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權內容。

AI