您好,登錄后才能下訂單哦!
今天小編給大家分享一下模型訓(xùn)練時(shí)GPU利用率太低如何解決的相關(guān)知識(shí)點(diǎn),內(nèi)容詳細(xì),邏輯清晰,相信大部分人都還太了解這方面的知識(shí),所以分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后有所收獲,下面我們一起來(lái)了解一下吧。
最近在訓(xùn)練SSD模型時(shí)發(fā)現(xiàn)GPU的利用率只有8%,而CPU的利用率卻非常高。
后來(lái)了解到,一般使用CPU進(jìn)行數(shù)據(jù)的讀取和預(yù)處理,而使用GPU進(jìn)行模型的正向傳播和反向傳播。由于CPU數(shù)據(jù)讀取跟不上(讀到內(nèi)存+多線程+二進(jìn)制文件),而GPU的處理速度太快,導(dǎo)致GPU的利用率不高。
最后總結(jié)一下,有的時(shí)候模型訓(xùn)練慢并不是因?yàn)轱@卡不行或者模型太大,而是在跑模型過(guò)程中有一些其他的操作導(dǎo)致速度很慢,尤其是文件的IO操作,這會(huì)導(dǎo)致GPU得不到連續(xù)性使用,整體速度特別慢。
1,關(guān)閉一些日志記錄,減少日志IO操作頻率。
2,NVIDA提供了DALI庫(kù),可以將數(shù)據(jù)處理轉(zhuǎn)移到GPU上。
GPU 的顯存占用和算力利用直接影響模型的訓(xùn)練速度
1、提高batch_size
2、提高模型輸入尺寸
3、增加模型深度
推薦:優(yōu)先提高batch_size, 其他方法會(huì)對(duì)模型結(jié)構(gòu)產(chǎn)生影響
1、提高線程數(shù)
2、打開pin_memory
# 在pytorch 加載數(shù)據(jù)時(shí)提高線程數(shù),打開pin_memory torch.utils.data.DataLoader(image_datasets[x], batch_size=batch_size, shuffle=True, num_workers=8, pin_memory=True)
以上就是“模型訓(xùn)練時(shí)GPU利用率太低如何解決”這篇文章的所有內(nèi)容,感謝各位的閱讀!相信大家閱讀完這篇文章都有很大的收獲,小編每天都會(huì)為大家更新不同的知識(shí),如果還想學(xué)習(xí)更多的知識(shí),請(qǐng)關(guān)注億速云行業(yè)資訊頻道。
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。