您好,登錄后才能下訂單哦!
小編給大家分享一下pytorch中.data與.detach()有什么區(qū)別,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!
眾所周知,pytorch里一個tensor默認(rèn)是有兩個屬性的,一個是data一個是grid。 但這里的data也是tensor。有的時候我們不想管梯度grid的事,所以用.data來提取這里的data。
a = torch.tensor([1,2,3.], requires_grad = True) out = a.sigmoid() c = out.data # 需要走注意的是,通過.data “分離”得到的的變量會和原來的變量共用同樣的數(shù)據(jù),而且新分離得到的張量是不可求導(dǎo)的,c發(fā)生了變化,原來的張量也會發(fā)生變化 c.zero_() # 改變c的值,原來的out也會改變
tensor .data 返回和 x 的相同數(shù)據(jù) tensor,而且這個新的tensor和原來的tensor是共用數(shù)據(jù)的,一者改變,另一者也會跟著改變,而且新分離得到的tensor的require s_grad = False, 即不可求導(dǎo)的。(這一點(diǎn)其實(shí)detach是一樣的)
除了.data,pytorch還提供了.detach()來實(shí)現(xiàn)相同的操作。不管grid的事,只提取data,可以用.detach()。而且我們更推薦使用.detach()。
a = torch.tensor([1,2,3.], requires_grad = True) out = a.sigmoid() c = out.detach() # 需要走注意的是,通過.detach() “分離”得到的的變量會和原來的變量共用同樣的數(shù)據(jù),而且新分離得到的張量是不可求導(dǎo)的,c發(fā)生了變化,原來的張量也會發(fā)生變化 c.zero_() # 改變c的值,原來的out也會改變
tensor .detach() 返回和 x 的相同數(shù)據(jù) tensor,而且這個新的tensor和原來的tensor是共用數(shù)據(jù)的,一者改變,另一者也會跟著改變,而且新分離得到的tensor的require s_grad = False, 即不可求導(dǎo)的。(這一點(diǎn)其實(shí) .data是一樣的)
那么哪里不一樣呢?為什么更推薦用.datach()呢?
舉個例子,上面的out包含著data,也包含著grid。現(xiàn)在我不想管梯度的事,所以可以用out.data來把純種tensor提取出來,此時的out.data也就是c已經(jīng)沒有梯度這個東西了??晌襝.zero_()修改了out的值,這時再bp竟然會成功!沒有梯度了竟然能bp!所以.data是有缺點(diǎn)的。而.detach()是沒有這個問題的,所以建議用.datach()。
以上是“pytorch中.data與.detach()有什么區(qū)別”這篇文章的所有內(nèi)容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內(nèi)容對大家有所幫助,如果還想學(xué)習(xí)更多知識,歡迎關(guān)注億速云行業(yè)資訊頻道!
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報,并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。