溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點(diǎn)擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

python中怎么利用PyTorch進(jìn)行回歸運(yùn)算

發(fā)布時(shí)間:2022-05-05 09:28:13 來源:億速云 閱讀:308 作者:iii 欄目:開發(fā)技術(shù)

本篇內(nèi)容介紹了“python中怎么利用PyTorch進(jìn)行回歸運(yùn)算”的有關(guān)知識(shí),在實(shí)際案例的操作過程中,不少人都會(huì)遇到這樣的困境,接下來就讓小編帶領(lǐng)大家學(xué)習(xí)一下如何處理這些情況吧!希望大家仔細(xì)閱讀,能夠?qū)W有所成!

    PyTorch中的重要基礎(chǔ)函數(shù)

    1、class Net(torch.nn.Module)神經(jīng)網(wǎng)絡(luò)的構(gòu)建:

    PyTorch中神經(jīng)網(wǎng)絡(luò)的構(gòu)建和Tensorflow的不一樣,它需要用一個(gè)類來進(jìn)行構(gòu)建(后面還可以用與Keras類似的Sequential模型構(gòu)建),當(dāng)然基礎(chǔ)還是用類構(gòu)建,這個(gè)類需要繼承PyTorch中的神經(jīng)網(wǎng)絡(luò)模型,torch.nn.Module,具體構(gòu)建方式如下:

    # 繼承torch.nn.Module模型
    class Net(torch.nn.Module):
    	# 重載初始化函數(shù)(我忘了這個(gè)是不是叫重載)
        def __init__(self, n_feature, n_hidden, n_output):
            super(Net, self).__init__()
            # Applies a linear transformation to the incoming data: :math:y = xA^T + b
            # 全連接層,公式為y = xA^T + b
            # 在初始化的同時(shí)構(gòu)建兩個(gè)全連接層(也就是一個(gè)隱含層)
            self.hidden = torch.nn.Linear(n_feature, n_hidden)
            self.predict = torch.nn.Linear(n_hidden, n_output)
    	# forward函數(shù)用于構(gòu)建前向傳遞的過程
        def forward(self, x):
            # 隱含層的輸出
            hidden_layer = functional.relu(self.hidden(x))
            # 實(shí)際的輸出
            output_layer = self.predict(hidden_layer)
            return output_layer

    該部分構(gòu)建了一個(gè)含有一層隱含層的神經(jīng)網(wǎng)絡(luò),隱含層神經(jīng)元個(gè)數(shù)為n_hidden。
    在建立了上述的類后,就可以通過如下函數(shù)建立神經(jīng)網(wǎng)絡(luò):

    net = Net(n_feature=1, n_hidden=10, n_output=1)

    2、optimizer優(yōu)化器

    optimizer用于構(gòu)建模型的優(yōu)化器,與tensorflow中優(yōu)化器的意義相同,PyTorch的優(yōu)化器在前綴為torch.optim的庫中。

    優(yōu)化器需要傳入net網(wǎng)絡(luò)的參數(shù)。

    具體使用方式如下:

    # torch.optim是優(yōu)化器模塊
    # Adam可以改成其它優(yōu)化器,如SGD、RMSprop等
    optimizer = torch.optim.Adam(net.parameters(), lr=1e-3)

    3、loss損失函數(shù)定義

    loss用于定義神經(jīng)網(wǎng)絡(luò)訓(xùn)練的損失函數(shù),常用的損失函數(shù)是均方差損失函數(shù)(回歸)和交叉熵?fù)p失函數(shù)(分類)。

    具體使用方式如下:

    # 均方差lossloss_func = torch.nn.MSELoss()

    4、訓(xùn)練過程

    訓(xùn)練過程分為三個(gè)步驟:

    1、利用網(wǎng)絡(luò)預(yù)測結(jié)果。

    prediction = net(x)

    2、利用預(yù)測的結(jié)果與真實(shí)值對比生成loss。

    loss = loss_func(prediction, y)

    3、進(jìn)行反向傳遞(該部分有三步)。

    # 均方差loss
    # 反向傳遞步驟
    # 1、初始化梯度
    optimizer.zero_grad()
    # 2、計(jì)算梯度
    loss.backward()
    # 3、進(jìn)行optimizer優(yōu)化
    optimizer.step()

    全部代碼

    這是一個(gè)簡單的回歸預(yù)測模型。

    import torch
    from torch.autograd import Variable
    import torch.nn.functional as functional
    import matplotlib.pyplot as plt
    import numpy as np
    # x的shape為(100,1)
    x = torch.from_numpy(np.linspace(-1,1,100).reshape([100,1])).type(torch.FloatTensor)
    # y的shape為(100,1)
    y = torch.sin(x) + 0.2*torch.rand(x.size())
    class Net(torch.nn.Module):
        def __init__(self, n_feature, n_hidden, n_output):
            super(Net, self).__init__()
            # Applies a linear transformation to the incoming data: :math:y = xA^T + b
            # 全連接層,公式為y = xA^T + b
            self.hidden = torch.nn.Linear(n_feature, n_hidden)
            self.predict = torch.nn.Linear(n_hidden, n_output)
        def forward(self, x):
            # 隱含層的輸出
            hidden_layer = functional.relu(self.hidden(x))
            output_layer = self.predict(hidden_layer)
            return output_layer
    # 類的建立
    net = Net(n_feature=1, n_hidden=10, n_output=1)
    # torch.optim是優(yōu)化器模塊
    optimizer = torch.optim.Adam(net.parameters(), lr=1e-3)
    # 均方差loss
    loss_func = torch.nn.MSELoss() 
    for t in range(1000):
        prediction = net(x)
        loss = loss_func(prediction, y)
        # 反向傳遞步驟
        # 1、初始化梯度
        optimizer.zero_grad()
        # 2、計(jì)算梯度
        loss.backward()
        # 3、進(jìn)行optimizer優(yōu)化
        optimizer.step()
        if t & 50 == 0:
            print("The loss is",loss.data.numpy())

    運(yùn)行結(jié)果為:

    The loss is 0.27913737
    The loss is 0.2773982
    The loss is 0.27224126
    …………
    The loss is 0.0035993527
    The loss is 0.0035974088
    The loss is 0.0035967692

    “python中怎么利用PyTorch進(jìn)行回歸運(yùn)算”的內(nèi)容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業(yè)相關(guān)的知識(shí)可以關(guān)注億速云網(wǎng)站,小編將為大家輸出更多高質(zhì)量的實(shí)用文章!

    向AI問一下細(xì)節(jié)

    免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

    AI