您好,登錄后才能下訂單哦!
這篇文章主要講解了“如何解決pytorch損失反向傳播后梯度為none的問題”,文中的講解內(nèi)容簡單清晰,易于學習與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學習“如何解決pytorch損失反向傳播后梯度為none的問題”吧!
a = torch.ones((2, 2), requires_grad=True).to(device)
b = a.sum()
b.backward()
print(a.grad)
修改后的代碼為:
a = torch.ones((2, 2), requires_grad=True)
c = a.to(device)
b = c.sum()
b.backward()
print(a.grad)
類似錯誤:
self.miu = torch.nn.Parameter(torch.ones(self.dimensional)) * 0.01
應該為
self.miu = torch.nn.Parameter(torch.ones(self.dimensional) * 0.01)
補充:pytorch梯度返回none的bug
tensor即使設(shè)置了requires_grad,反向傳播之后, x返回沒有g(shù)rad梯度,為none
不知道其他版本有無此bug
補充:PyTorch中梯度反向傳播的注意點
optimizer.zero_grad()語句的位置比較隨意,只要放在loss.backward()前面即可,它的作用是將梯度歸零,否則會在每一個迭代中進行累加,
loss.backward()的作用是反向傳播,計算梯度,optimizer.step()的功能是優(yōu)化器自動完成參數(shù)的更新。
optimizer.zero_grad()
loss.backward()
optimizer.step()
感謝各位的閱讀,以上就是“如何解決pytorch損失反向傳播后梯度為none的問題”的內(nèi)容了,經(jīng)過本文的學習后,相信大家對如何解決pytorch損失反向傳播后梯度為none的問題這一問題有了更深刻的體會,具體使用情況還需要大家實踐驗證。這里是億速云,小編將為大家推送更多相關(guān)知識點的文章,歡迎關(guān)注!
免責聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。