您好,登錄后才能下訂單哦!
小編給大家分享一下pytorch中l(wèi)oss反向傳播出錯(cuò)怎么辦,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!
File "train.py", line 143, in train
loss.backward()
File "/usr/local/lib/python3.6/dist-packages/torch/tensor.py", line 198, in backward
torch.autograd.backward(self, gradient, retain_graph, create_graph)
File "/usr/local/lib/python3.6/dist-packages/torch/autograd/__init__.py", line 94, in backward
grad_tensors = _make_grads(tensors, grad_tensors)
File "/usr/local/lib/python3.6/dist-packages/torch/autograd/__init__.py", line 35, in _make_grads
raise RuntimeError("grad can be implicitly created only for scalar outputs")
RuntimeError: grad can be implicitly created only for scalar outputs
因?yàn)槲覀冊(cè)趫?zhí)行 loss.backward() 時(shí)沒(méi)帶參數(shù),這與 loss.backward(torch.Tensor(1.0)) 是相同的,參數(shù)默認(rèn)就是一個(gè)標(biāo)量。
但是由于自己的loss不是一個(gè)標(biāo)量,而是二維的張量,所以就會(huì)報(bào)錯(cuò)。
loss = criterion(pred, targets)
loss.backward()
# 改為:
loss = criterion(pred, targets)
loss.backward(loss.clone().detach())
把張量的輸出修改為標(biāo)量,比如說(shuō)多多個(gè)維度的loss求和或求均值等。此方法對(duì)于某些任務(wù)不一定適用,可以嘗試自己修改。
criterion = nn.L1Loss(reduction='none')
# 把參數(shù)去掉,改為:
criterion = nn.L1Loss()
在新的pytorch版本里,使用reduction 參數(shù)取代了舊版本的size_average和reduce參數(shù)。
reduction 參數(shù)有三種選擇:
'elementwise_mean':為默認(rèn)情況,表明對(duì)N個(gè)樣本的loss進(jìn)行求平均之后返回(相當(dāng)于reduce=True,size_average=True);
'sum':指對(duì)n個(gè)樣本的loss求和(相當(dāng)于reduce=True,size_average=False);
'none':表示直接返回n分樣本的loss(相當(dāng)于reduce=False)
補(bǔ)充:在Pytorch下,由于反向傳播設(shè)置錯(cuò)誤導(dǎo)致 loss不下降的原因及解決方案
在Pytorch下,由于反向傳播設(shè)置錯(cuò)誤導(dǎo)致 loss不下降的原因及解決方案
剛剛接觸深度學(xué)習(xí)一段時(shí)間,一直在研究計(jì)算機(jī)視覺(jué)方面,現(xiàn)在也在嘗試實(shí)現(xiàn)自己的idea,從中也遇見(jiàn)了一些問(wèn)題,這次就專(zhuān)門(mén)寫(xiě)一下,自己由于在反向傳播(backward)過(guò)程中參數(shù)沒(méi)有設(shè)置好,而導(dǎo)致的loss不下降的原因。
簡(jiǎn)單描述一下我的網(wǎng)絡(luò)結(jié)構(gòu),我的網(wǎng)絡(luò)是有上下兩路,先對(duì)第一路網(wǎng)絡(luò)進(jìn)行訓(xùn)練,使用groud truth對(duì)這一路的結(jié)果進(jìn)行監(jiān)督loss_steam1,得到訓(xùn)練好的feature.然后再將得到的feature級(jí)聯(lián)到第二路,通過(guò)網(wǎng)絡(luò)得到最后的結(jié)果,再用groud truth進(jìn)行監(jiān)督loss。
這個(gè)問(wèn)題確實(shí)折麼自己一段時(shí)間,結(jié)果發(fā)現(xiàn)自己出現(xiàn)了一個(gè)問(wèn)題,下面將對(duì)這個(gè)問(wèn)題進(jìn)行分析和解答:
在PyTorch中,傳入網(wǎng)絡(luò)計(jì)算的數(shù)據(jù)類(lèi)型必須是Variable類(lèi)型, Variable包裝了一個(gè)Tensor,并且保存著梯度和創(chuàng)建這個(gè)Variablefunction的引用,換句話(huà)說(shuō),就是記錄網(wǎng)絡(luò)每層的梯度和網(wǎng)絡(luò)圖,可以實(shí)現(xiàn)梯度的反向傳遞.
則根據(jù)最后得到的loss可以逐步遞歸的求其每層的梯度,并實(shí)現(xiàn)權(quán)重更新。
在實(shí)現(xiàn)梯度反向傳遞時(shí)主要需要三步:
1、初始化梯度值:net.zero_grad() 清除網(wǎng)絡(luò)狀態(tài)
2、反向求解梯度:loss.backward() 反向傳播求梯度
3、更新參數(shù):optimizer.step() 更新參數(shù)
自己在寫(xiě)代碼的時(shí)候,還是沒(méi)有對(duì)自己的代碼搞明白。在反向求解梯度時(shí),對(duì)第一路沒(méi)有進(jìn)行反向傳播,這樣肯定不能使這一路的更新,所以我就又加了一步:
loss_steam1.backward( retain_graph = True) //因?yàn)槊看芜\(yùn)行一次backward時(shí),如果不加retain_graph = True,運(yùn)行完后,計(jì)算圖都會(huì)free掉。
loss.backward()
這樣就夠了么?我當(dāng)時(shí)也是這么認(rèn)為的結(jié)果發(fā)現(xiàn)loss_steam1還是沒(méi)有降,又愁了好久,結(jié)果發(fā)現(xiàn)梯度有了,不更新參數(shù),怎么可能有用!
optimizer_steam1.step() //這項(xiàng)必須加
optimizer.step()
哈哈!這樣就完成了,效果也確實(shí)比以前好了很多。
以上是“pytorch中l(wèi)oss反向傳播出錯(cuò)怎么辦”這篇文章的所有內(nèi)容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內(nèi)容對(duì)大家有所幫助,如果還想學(xué)習(xí)更多知識(shí),歡迎關(guān)注億速云行業(yè)資訊頻道!
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。