您好,登錄后才能下訂單哦!
如何提升PyTorch的性能,很多新手對(duì)此不是很清楚,為了幫助大家解決這個(gè)難題,下面小編將為大家詳細(xì)講解,有這方面需求的人可以來(lái)學(xué)習(xí)下,希望你能有所收獲。
你知道有時(shí)候你的GPU內(nèi)存顯示它是滿的但你很確定你的模型沒(méi)有使用那么多?這種開(kāi)銷稱為pinned memory。這個(gè)內(nèi)存被保留為一種“working allocation”類型。
當(dāng)你在一個(gè)DataLoader中啟用pinned_memory時(shí),它“自動(dòng)將獲取的數(shù)據(jù)張量放在pinned memory中,并使數(shù)據(jù)更快地傳輸?shù)紺UDA-enabled的gpu”
這意味著你不應(yīng)該不必要的去調(diào)用:
torch.cuda.empty_cache()
避免CPU到GPU的傳輸,反之亦然
# bad.cpu() .item() .numpy()
我看到大量使用.item()或.cpu()或.numpy()調(diào)用。這對(duì)于性能來(lái)說(shuō)是非常糟糕的,因?yàn)槊總€(gè)調(diào)用都將數(shù)據(jù)從GPU傳輸?shù)紺PU,從而極大地降低了性能。
如果你試圖清除附加的計(jì)算圖,請(qǐng)使用.detach()。
# good.detach()
這不會(huì)將內(nèi)存轉(zhuǎn)移到GPU,它會(huì)刪除任何附加到該變量的計(jì)算圖。
大多數(shù)人都是這樣在GPUs上創(chuàng)建張量的
t = tensor.rand(2,2).cuda()
然而,這首先創(chuàng)建CPU張量,然后將其轉(zhuǎn)移到GPU……這真的很慢。相反,直接在想要的設(shè)備上創(chuàng)建張量。
t = tensor.rand(2,2, device=torch.device('cuda:0'))
如果你正在使用Lightning,我們會(huì)自動(dòng)把你的模型和批處理放到正確的GPU上。但是,如果你在代碼的某個(gè)地方創(chuàng)建了一個(gè)新的張量(例如:為一個(gè)VAE采樣隨機(jī)噪聲,或類似的東西),那么你必須自己放置張量。
t = tensor.rand(2,2, device=self.device)
每個(gè)LightningModule都有一個(gè)方便的self.device調(diào)用,無(wú)論你是在CPU上,多 GPUs上,還是在TPUs上,lightning會(huì)為那個(gè)張量選擇正確的設(shè)備。
PyTorch有兩個(gè)主要的模式用于在多 GPUs訓(xùn)練。第一種是DataParallel,它將一批數(shù)據(jù)分割到多個(gè)GPUs上。但這也意味著模型必須復(fù)制到每個(gè)GPU上,一旦在GPU 0上計(jì)算出梯度,它們必須同步到其他GPU。
這需要大量昂貴的GPU傳輸!相反,DistributedDataParallel在每個(gè)GPU(在它自己的進(jìn)程中)上創(chuàng)建模型副本,并且只讓數(shù)據(jù)的一部分對(duì)該GPU可用。這就像是讓N個(gè)獨(dú)立的模型進(jìn)行訓(xùn)練,除了一旦每個(gè)模型都計(jì)算出梯度,它們就會(huì)在模型之間同步梯度……這意味著我們?cè)诿颗幚碇兄辉贕PUs之間傳輸一次數(shù)據(jù)。
在Lightning中,你可以在兩者之間輕松切換
Trainer(distributed_backend='ddp', gpus=8) Trainer(distributed_backend='dp', gpus=8)
請(qǐng)注意,PyTorch和Lightning都不鼓勵(lì)使用DP。
這是另一種加快訓(xùn)練速度的方法,我們沒(méi)有看到很多人使用這種方法。在你的模型進(jìn)行16bit訓(xùn)練的部分,數(shù)據(jù)從32位變到到16位。這有幾個(gè)優(yōu)點(diǎn):
鴻蒙官方戰(zhàn)略合作共建——HarmonyOS技術(shù)社區(qū)
你使用了一半的內(nèi)存(這意味著你可以將batch大小翻倍,并將訓(xùn)練時(shí)間減半)。
某些GPU(V100, 2080Ti)可以自動(dòng)加速(3 -8倍),因?yàn)樗鼈冡槍?duì)16位計(jì)算進(jìn)行了優(yōu)化。
在Lightning中,這很簡(jiǎn)單:
Trainer(precision=16)
注意:在PyTorch 1.6之前,你還必須安裝Nvidia Apex,現(xiàn)在16位是PyTorch的原生版本。但如果你使用的是Lightning,它同時(shí)支持這兩種功能,并根據(jù)檢測(cè)到的PyTorch版本自動(dòng)切換。
如果沒(méi)有Lightning,最后一條建議可能很難實(shí)現(xiàn),但你可以使用cprofiler這樣的工具來(lái)實(shí)現(xiàn)。然而,在Lightning中,你可以通過(guò)兩種方式獲得所有在訓(xùn)練期間所做的調(diào)用的總結(jié):
首先,內(nèi)置的basic profiler
Trainer(profile=True)
可以給出這樣的輸出:
或者是高級(jí)的profiler:
profiler = AdvancedProfiler() trainer = Trainer(profilerprofiler=profiler)
得到更小粒度的結(jié)果:
看完上述內(nèi)容是否對(duì)您有幫助呢?如果還想對(duì)相關(guān)知識(shí)有進(jìn)一步的了解或閱讀更多相關(guān)文章,請(qǐng)關(guān)注億速云行業(yè)資訊頻道,感謝您對(duì)億速云的支持。
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。