溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

pytorch中g(shù)pu與gpu、gpu與cpu在load時是怎么相互轉(zhuǎn)化的

發(fā)布時間:2020-07-22 10:30:27 來源:億速云 閱讀:362 作者:小豬 欄目:開發(fā)技術(shù)

這篇文章主要講解了pytorch中g(shù)pu與gpu、gpu與cpu在load時是怎么相互轉(zhuǎn)化的,內(nèi)容清晰明了,對此有興趣的小伙伴可以學習一下,相信大家閱讀完之后會有幫助。

問題描述

有時在加載已訓練好的模型時,會出現(xiàn) out of memory 的錯誤提示,但仔細檢測使用的GPU卡并沒有再用且內(nèi)存也沒有超出。

經(jīng)查閱發(fā)現(xiàn)原來是訓練模型時使用的GPU卡和加載時使用的GPU卡不一樣導(dǎo)致的。個人感覺,因為pytorch的模型中是會記錄有GPU信息的,所以有時使用不同的GPU加載時會報錯。

解決方法

gpu之間的相互轉(zhuǎn)換。即,將訓練時的gpu卡轉(zhuǎn)換為加載時的gpu卡。

torch.load('modelparameters.pth', map_location={'cuda:1':'cuda:0'}) # gpu 1 --> gpu 0

當然,你也可以直接將加載模型時使用的gpu卡改為和訓練時的一樣。但在多人使用一個服務(wù)器時,你想用的gpu卡已被使用,就需按上面方法轉(zhuǎn)換gpu。

拓展

cpu --> cpu 或 gpu --> gpu

checkpoint = torch.load('modelparameters.pth')
model.load_state_dict(checkpoint)

cpu --> gpu 0

torch.load('modelparameters.pth', map_location=lambda storage, loc: storage.cuda(0))

gpu --> cpu

torch.load('modelparameters.pth', map_location=lambda storage, loc: storage)

gpu 1 --> gpu 0

torch.load('modelparameters.pth', map_location={'cuda:1':'cuda:0'})

補充知識:pytorch model.cuda()花費時間很長

如果pytorch在進行model.cuda()操作需要花費的時間很長,長到你懷疑GPU的速度了,那就是不正常的。

如果你用的pytorch版本是0.3.0,升級到0.3.1就好了!

看完上述內(nèi)容,是不是對pytorch中g(shù)pu與gpu、gpu與cpu在load時是怎么相互轉(zhuǎn)化的有進一步的了解,如果還想學習更多內(nèi)容,歡迎關(guān)注億速云行業(yè)資訊頻道。

向AI問一下細節(jié)

免責聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI