溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶服務(wù)條款》

python實(shí)現(xiàn)多元線性回歸的示例

發(fā)布時(shí)間:2021-04-13 10:16:57 來(lái)源:億速云 閱讀:347 作者:小新 欄目:開(kāi)發(fā)技術(shù)

這篇文章主要介紹了python實(shí)現(xiàn)多元線性回歸的示例,具有一定借鑒價(jià)值,感興趣的朋友可以參考下,希望大家閱讀完這篇文章之后大有收獲,下面讓小編帶著大家一起了解一下。

總體思路與一元線性回歸思想一樣,現(xiàn)在將數(shù)據(jù)以矩陣形式進(jìn)行運(yùn)算,更加方便。
一元線性回歸實(shí)現(xiàn)代碼
下面是多元線性回歸用Python實(shí)現(xiàn)的代碼:

import numpy as np

def linearRegression(data_X,data_Y,learningRate,loopNum):
 W = np.zeros(shape=[1, data_X.shape[1]])
 # W的shape取決于特征個(gè)數(shù),而x的行是樣本個(gè)數(shù),x的列是特征值個(gè)數(shù)
 # 所需要的W的形式為 行=特征個(gè)數(shù),列=1 這樣的矩陣。但也可以用1行,再進(jìn)行轉(zhuǎn)置:W.T
 # X.shape[0]取X的行數(shù),X.shape[1]取X的列數(shù)
 b = 0

 #梯度下降
 for i in range(loopNum):
  W_derivative = np.zeros(shape=[1, data_X.shape[1]])
  b_derivative, cost = 0, 0

  WXPlusb = np.dot(data_X, W.T) + b # W.T:W的轉(zhuǎn)置
  W_derivative += np.dot((WXPlusb - data_Y).T, data_X) # np.dot:矩陣乘法
  b_derivative += np.dot(np.ones(shape=[1, data_X.shape[0]]), WXPlusb - data_Y)
  cost += (WXPlusb - data_Y)*(WXPlusb - data_Y)
  W_derivative = W_derivative / data_X.shape[0] # data_X.shape[0]:data_X矩陣的行數(shù),即樣本個(gè)數(shù)
  b_derivative = b_derivative / data_X.shape[0]


  W = W - learningRate*W_derivative
  b = b - learningRate*b_derivative

  cost = cost/(2*data_X.shape[0])
  if i % 100 == 0:
   print(cost)
 print(W)
 print(b)

if __name__== "__main__":
 X = np.random.normal(0, 10, 100)
 noise = np.random.normal(0, 0.05, 20)
 W = np.array([[3, 5, 8, 2, 1]]) #設(shè)5個(gè)特征值
 X = X.reshape(20, 5)  #reshape成20行5列
 noise = noise.reshape(20, 1)
 Y = np.dot(X, W.T)+6 + noise
 linearRegression(X, Y, 0.003, 5000)

特別需要注意的是要弄清:矩陣的形狀

在梯度下降的時(shí)候,計(jì)算兩個(gè)偏導(dǎo)值,這里面的矩陣形狀變化需要注意。

梯度下降數(shù)學(xué)式子:

python實(shí)現(xiàn)多元線性回歸的示例 

以代碼中為例,來(lái)分析一下梯度下降中的矩陣形狀。
代碼中設(shè)了5個(gè)特征。

python實(shí)現(xiàn)多元線性回歸的示例

WXPlusb = np.dot(data_X, W.T) + b

W是一個(gè)1*5矩陣,data_X是一個(gè)20*5矩陣
WXPlusb矩陣形狀=20*5矩陣乘上5*1(W的轉(zhuǎn)置)的矩陣=20*1矩陣

W_derivative += np.dot((WXPlusb - data_Y).T, data_X)

W偏導(dǎo)矩陣形狀=1*20矩陣乘上 20*5矩陣=1*5矩陣

b_derivative += np.dot(np.ones(shape=[1, data_X.shape[0]]), WXPlusb - data_Y)

b是一個(gè)數(shù),用1*20的全1矩陣乘上20*1矩陣=一個(gè)數(shù)

感謝你能夠認(rèn)真閱讀完這篇文章,希望小編分享的“python實(shí)現(xiàn)多元線性回歸的示例”這篇文章對(duì)大家有幫助,同時(shí)也希望大家多多支持億速云,關(guān)注億速云行業(yè)資訊頻道,更多相關(guān)知識(shí)等著你來(lái)學(xué)習(xí)!

向AI問(wèn)一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI