您好,登錄后才能下訂單哦!
這篇文章將為大家詳細(xì)講解有關(guān)pytorch中torch.backends.cudnn設(shè)置的示例分析,小編覺(jué)得挺實(shí)用的,因此分享給大家做個(gè)參考,希望大家閱讀完這篇文章后可以有所收獲。
cuDNN使用非確定性算法,并且可以使用torch.backends.cudnn.enabled = False來(lái)進(jìn)行禁用
如果設(shè)置為torch.backends.cudnn.enabled =True,說(shuō)明設(shè)置為使用使用非確定性算法
然后再設(shè)置:
torch.backends.cudnn.benchmark = true
那么cuDNN使用的非確定性算法就會(huì)自動(dòng)尋找最適合當(dāng)前配置的高效算法,來(lái)達(dá)到優(yōu)化運(yùn)行效率的問(wèn)題
一般來(lái)講,應(yīng)該遵循以下準(zhǔn)則:
如果網(wǎng)絡(luò)的輸入數(shù)據(jù)維度或類(lèi)型上變化不大,設(shè)置 torch.backends.cudnn.benchmark = true 可以增加運(yùn)行效率;
如果網(wǎng)絡(luò)的輸入數(shù)據(jù)在每次 iteration 都變化的話(huà),會(huì)導(dǎo)致 cnDNN 每次都會(huì)去尋找一遍最優(yōu)配置,這樣反而會(huì)降低運(yùn)行效率。
所以我們經(jīng)??匆?jiàn)在代碼開(kāi)始出兩者同時(shí)設(shè)置:
torch.backends.cudnn.enabled = True
torch.backends.cudnn.benchmark = True
關(guān)于“pytorch中torch.backends.cudnn設(shè)置的示例分析”這篇文章就分享到這里了,希望以上內(nèi)容可以對(duì)大家有一定的幫助,使各位可以學(xué)到更多知識(shí),如果覺(jué)得文章不錯(cuò),請(qǐng)把它分享出去讓更多的人看到。
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀(guān)點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。