您好,登錄后才能下訂單哦!
這篇文章主要講解了pytorch中g(shù)pu與gpu、gpu與cpu在load時是怎么相互轉(zhuǎn)化的,內(nèi)容清晰明了,對此有興趣的小伙伴可以學習一下,相信大家閱讀完之后會有幫助。
問題描述
有時在加載已訓練好的模型時,會出現(xiàn) out of memory 的錯誤提示,但仔細檢測使用的GPU卡并沒有再用且內(nèi)存也沒有超出。
經(jīng)查閱發(fā)現(xiàn)原來是訓練模型時使用的GPU卡和加載時使用的GPU卡不一樣導(dǎo)致的。個人感覺,因為pytorch的模型中是會記錄有GPU信息的,所以有時使用不同的GPU加載時會報錯。
解決方法
gpu之間的相互轉(zhuǎn)換。即,將訓練時的gpu卡轉(zhuǎn)換為加載時的gpu卡。
torch.load('modelparameters.pth', map_location={'cuda:1':'cuda:0'}) # gpu 1 --> gpu 0
當然,你也可以直接將加載模型時使用的gpu卡改為和訓練時的一樣。但在多人使用一個服務(wù)器時,你想用的gpu卡已被使用,就需按上面方法轉(zhuǎn)換gpu。
拓展
cpu --> cpu 或 gpu --> gpu
checkpoint = torch.load('modelparameters.pth')
model.load_state_dict(checkpoint)
cpu --> gpu 0
torch.load('modelparameters.pth', map_location=lambda storage, loc: storage.cuda(0))
gpu --> cpu
torch.load('modelparameters.pth', map_location=lambda storage, loc: storage)
gpu 1 --> gpu 0
torch.load('modelparameters.pth', map_location={'cuda:1':'cuda:0'})
補充知識:pytorch model.cuda()花費時間很長
如果pytorch在進行model.cuda()操作需要花費的時間很長,長到你懷疑GPU的速度了,那就是不正常的。
如果你用的pytorch版本是0.3.0,升級到0.3.1就好了!
看完上述內(nèi)容,是不是對pytorch中g(shù)pu與gpu、gpu與cpu在load時是怎么相互轉(zhuǎn)化的有進一步的了解,如果還想學習更多內(nèi)容,歡迎關(guān)注億速云行業(yè)資訊頻道。
免責聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。