溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶(hù)服務(wù)條款》

怎么使用Python線性回歸方法

發(fā)布時(shí)間:2021-11-20 14:36:46 來(lái)源:億速云 閱讀:150 作者:iii 欄目:編程語(yǔ)言

這篇文章主要講解了“怎么使用Python線性回歸方法”,文中的講解內(nèi)容簡(jiǎn)單清晰,易于學(xué)習(xí)與理解,下面請(qǐng)大家跟著小編的思路慢慢深入,一起來(lái)研究和學(xué)習(xí)“怎么使用Python線性回歸方法”吧!

來(lái)說(shuō)說(shuō)約定的符號(hào),線性回歸參數(shù)主要由斜率和截距組成,這里用W表示斜率,b表示截距。大寫(xiě)的W表示這是一個(gè)向量。一般來(lái)說(shuō)是n_feauter_num數(shù)量,就是有多少個(gè)特征,W的shape就是(n_feauter_num,1),截距b是一個(gè)常數(shù),通過(guò)公式Y(jié)=W*X+b計(jì)算出目標(biāo)Y值,一般來(lái)說(shuō),在機(jī)器學(xué)習(xí)中約定原始值為Y,預(yù)測(cè)值為Y_hat。下面來(lái)談?wù)劸唧w實(shí)現(xiàn)步驟

  • 構(gòu)造數(shù)據(jù)

  • 構(gòu)造loss function(coss function)

  • 分別對(duì)W和b計(jì)算梯度(也是對(duì)cost function分別對(duì)W和b求導(dǎo))

  • 計(jì)算Y_hat

  • 多次迭代計(jì)算梯度,直接收斂或者迭代結(jié)束

下面給出具體python代碼實(shí)現(xiàn),本代碼是通用代碼,可以任意擴(kuò)展W,代碼中計(jì)算loss和梯度的地方采用的向量實(shí)現(xiàn),因此增加W的維度不用修改代碼

import matplotlib.pyplot as pltimport numpy as npdef f(X):
 w = np.array([1, 3, 2])
 b = 10
 return np.dot(X, w.T) + bdef cost(X, Y, w, b):
 m = X.shape[0]
 Z = np.dot(X, w) + b
 Y_hat = Z.reshape(m, 1)
 cost = np.sum(np.square(Y_hat - Y)) / (2 * m) return costdef gradient_descent(X, Y, W, b, learning_rate):
 m = X.shape[0]
 W = W - learning_rate * (1 / m) * X.T.dot((np.dot(X, W) + b - Y))
 b = b - learning_rate * (1 / m) * np.sum(np.dot(X, W) + b - Y) return W, bdef main():
 # sample number
 m = 5
 # feature number
 n = 3
 total = m * n # construct data
 X = np.random.rand(total).reshape(m, n)
 Y = f(X).reshape(m, 1)# iris = datasets.load_iris()# X, Y = iris.data, iris.target.reshape(150, 1)# X = X[Y[:, 0] < 2]# Y = Y[Y[:, 0] < 2]# m = X.shape[0]# n = X.shape[1]
 # define parameter
 W = np.ones((n, 1), dtype=float).reshape(n, 1)
 b = 0.0
 # def forward pass++
 learning_rate = 0.1
 iter_num = 10000
 i = 0
 J = [] while i < iter_num:
 i = i + 1
 W, b = gradient_descent(X, Y, W, b, learning_rate)
 j = cost(X, Y, W, b)
 J.append(j)
 print(W, b)
 print(j)
 plt.plot(J)
 plt.show()if __name__ == '__main__':
 main()

可以看到,結(jié)果輸出很接近預(yù)設(shè)參數(shù)[1,3,2]和10

是不是感覺(jué)so easy.

step: 4998 loss: 3.46349593719e-07[[ 1.00286704]
 [ 3.00463459]
 [ 2.00173473]] 9.99528287088step: 4999 loss: 3.45443124835e-07[[ 1.00286329]
 [ 3.00462853]
 [ 2.00173246]] 9.99528904819step: 5000 loss: 3.44539028368e-07

感謝各位的閱讀,以上就是“怎么使用Python線性回歸方法”的內(nèi)容了,經(jīng)過(guò)本文的學(xué)習(xí)后,相信大家對(duì)怎么使用Python線性回歸方法這一問(wèn)題有了更深刻的體會(huì),具體使用情況還需要大家實(shí)踐驗(yàn)證。這里是億速云,小編將為大家推送更多相關(guān)知識(shí)點(diǎn)的文章,歡迎關(guān)注!

向AI問(wèn)一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI