溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點(diǎn)擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

pytorch中.data與.detach()有什么區(qū)別

發(fā)布時間:2022-01-04 09:30:45 來源:億速云 閱讀:350 作者:小新 欄目:大數(shù)據(jù)

小編給大家分享一下pytorch中.data與.detach()有什么區(qū)別,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!

        眾所周知,pytorch里一個tensor默認(rèn)是有兩個屬性的,一個是data一個是grid。 但這里的data也是tensor。有的時候我們不想管梯度grid的事,所以用.data來提取這里的data。

a = torch.tensor([1,2,3.], requires_grad = True)
out = a.sigmoid()
c = out.data  # 需要走注意的是,通過.data “分離”得到的的變量會和原來的變量共用同樣的數(shù)據(jù),而且新分離得到的張量是不可求導(dǎo)的,c發(fā)生了變化,原來的張量也會發(fā)生變化
c.zero_()     # 改變c的值,原來的out也會改變

        tensor .data 返回和 x 的相同數(shù)據(jù) tensor,而且這個新的tensor和原來的tensor是共用數(shù)據(jù)的,一者改變,另一者也會跟著改變,而且新分離得到的tensor的require s_grad = False, 即不可求導(dǎo)的。(這一點(diǎn)其實(shí)detach是一樣的)  

        除了.data,pytorch還提供了.detach()來實(shí)現(xiàn)相同的操作。不管grid的事,只提取data,可以用.detach()。而且我們更推薦使用.detach()。

a = torch.tensor([1,2,3.], requires_grad = True)
out = a.sigmoid()
c = out.detach()  # 需要走注意的是,通過.detach() “分離”得到的的變量會和原來的變量共用同樣的數(shù)據(jù),而且新分離得到的張量是不可求導(dǎo)的,c發(fā)生了變化,原來的張量也會發(fā)生變化
c.zero_()     # 改變c的值,原來的out也會改變

        tensor .detach() 返回和 x 的相同數(shù)據(jù) tensor,而且這個新的tensor和原來的tensor是共用數(shù)據(jù)的,一者改變,另一者也會跟著改變,而且新分離得到的tensor的require s_grad = False, 即不可求導(dǎo)的。(這一點(diǎn)其實(shí) .data是一樣的)

        那么哪里不一樣呢?為什么更推薦用.datach()呢?

        舉個例子,上面的out包含著data,也包含著grid。現(xiàn)在我不想管梯度的事,所以可以用out.data來把純種tensor提取出來,此時的out.data也就是c已經(jīng)沒有梯度這個東西了??晌襝.zero_()修改了out的值,這時再bp竟然會成功!沒有梯度了竟然能bp!所以.data是有缺點(diǎn)的。而.detach()是沒有這個問題的,所以建議用.datach()。

以上是“pytorch中.data與.detach()有什么區(qū)別”這篇文章的所有內(nèi)容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內(nèi)容對大家有所幫助,如果還想學(xué)習(xí)更多知識,歡迎關(guān)注億速云行業(yè)資訊頻道!

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報,并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI