您好,登錄后才能下訂單哦!
本篇內(nèi)容介紹了“python中怎么利用PyTorch進(jìn)行回歸運(yùn)算”的有關(guān)知識(shí),在實(shí)際案例的操作過程中,不少人都會(huì)遇到這樣的困境,接下來就讓小編帶領(lǐng)大家學(xué)習(xí)一下如何處理這些情況吧!希望大家仔細(xì)閱讀,能夠?qū)W有所成!
PyTorch中神經(jīng)網(wǎng)絡(luò)的構(gòu)建和Tensorflow的不一樣,它需要用一個(gè)類來進(jìn)行構(gòu)建(后面還可以用與Keras類似的Sequential模型構(gòu)建),當(dāng)然基礎(chǔ)還是用類構(gòu)建,這個(gè)類需要繼承PyTorch中的神經(jīng)網(wǎng)絡(luò)模型,torch.nn.Module,具體構(gòu)建方式如下:
# 繼承torch.nn.Module模型 class Net(torch.nn.Module): # 重載初始化函數(shù)(我忘了這個(gè)是不是叫重載) def __init__(self, n_feature, n_hidden, n_output): super(Net, self).__init__() # Applies a linear transformation to the incoming data: :math:y = xA^T + b # 全連接層,公式為y = xA^T + b # 在初始化的同時(shí)構(gòu)建兩個(gè)全連接層(也就是一個(gè)隱含層) self.hidden = torch.nn.Linear(n_feature, n_hidden) self.predict = torch.nn.Linear(n_hidden, n_output) # forward函數(shù)用于構(gòu)建前向傳遞的過程 def forward(self, x): # 隱含層的輸出 hidden_layer = functional.relu(self.hidden(x)) # 實(shí)際的輸出 output_layer = self.predict(hidden_layer) return output_layer
該部分構(gòu)建了一個(gè)含有一層隱含層的神經(jīng)網(wǎng)絡(luò),隱含層神經(jīng)元個(gè)數(shù)為n_hidden。
在建立了上述的類后,就可以通過如下函數(shù)建立神經(jīng)網(wǎng)絡(luò):
net = Net(n_feature=1, n_hidden=10, n_output=1)
optimizer用于構(gòu)建模型的優(yōu)化器,與tensorflow中優(yōu)化器的意義相同,PyTorch的優(yōu)化器在前綴為torch.optim的庫中。
優(yōu)化器需要傳入net網(wǎng)絡(luò)的參數(shù)。
具體使用方式如下:
# torch.optim是優(yōu)化器模塊 # Adam可以改成其它優(yōu)化器,如SGD、RMSprop等 optimizer = torch.optim.Adam(net.parameters(), lr=1e-3)
loss用于定義神經(jīng)網(wǎng)絡(luò)訓(xùn)練的損失函數(shù),常用的損失函數(shù)是均方差損失函數(shù)(回歸)和交叉熵?fù)p失函數(shù)(分類)。
具體使用方式如下:
# 均方差lossloss_func = torch.nn.MSELoss()
訓(xùn)練過程分為三個(gè)步驟:
1、利用網(wǎng)絡(luò)預(yù)測結(jié)果。
prediction = net(x)
2、利用預(yù)測的結(jié)果與真實(shí)值對比生成loss。
loss = loss_func(prediction, y)
3、進(jìn)行反向傳遞(該部分有三步)。
# 均方差loss # 反向傳遞步驟 # 1、初始化梯度 optimizer.zero_grad() # 2、計(jì)算梯度 loss.backward() # 3、進(jìn)行optimizer優(yōu)化 optimizer.step()
這是一個(gè)簡單的回歸預(yù)測模型。
import torch from torch.autograd import Variable import torch.nn.functional as functional import matplotlib.pyplot as plt import numpy as np # x的shape為(100,1) x = torch.from_numpy(np.linspace(-1,1,100).reshape([100,1])).type(torch.FloatTensor) # y的shape為(100,1) y = torch.sin(x) + 0.2*torch.rand(x.size()) class Net(torch.nn.Module): def __init__(self, n_feature, n_hidden, n_output): super(Net, self).__init__() # Applies a linear transformation to the incoming data: :math:y = xA^T + b # 全連接層,公式為y = xA^T + b self.hidden = torch.nn.Linear(n_feature, n_hidden) self.predict = torch.nn.Linear(n_hidden, n_output) def forward(self, x): # 隱含層的輸出 hidden_layer = functional.relu(self.hidden(x)) output_layer = self.predict(hidden_layer) return output_layer # 類的建立 net = Net(n_feature=1, n_hidden=10, n_output=1) # torch.optim是優(yōu)化器模塊 optimizer = torch.optim.Adam(net.parameters(), lr=1e-3) # 均方差loss loss_func = torch.nn.MSELoss() for t in range(1000): prediction = net(x) loss = loss_func(prediction, y) # 反向傳遞步驟 # 1、初始化梯度 optimizer.zero_grad() # 2、計(jì)算梯度 loss.backward() # 3、進(jìn)行optimizer優(yōu)化 optimizer.step() if t & 50 == 0: print("The loss is",loss.data.numpy())
運(yùn)行結(jié)果為:
The loss is 0.27913737
The loss is 0.2773982
The loss is 0.27224126
…………
The loss is 0.0035993527
The loss is 0.0035974088
The loss is 0.0035967692
“python中怎么利用PyTorch進(jìn)行回歸運(yùn)算”的內(nèi)容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業(yè)相關(guān)的知識(shí)可以關(guān)注億速云網(wǎng)站,小編將為大家輸出更多高質(zhì)量的實(shí)用文章!
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。