您好,登錄后才能下訂單哦!
這篇文章主要為大家展示了“Pytorch中如何使用多塊GPU”,內(nèi)容簡(jiǎn)而易懂,條理清晰,希望能夠幫助大家解決疑惑,下面讓小編帶領(lǐng)大家一起研究并學(xué)習(xí)一下“Pytorch中如何使用多塊GPU”這篇文章吧。
注:本文針對(duì)單個(gè)服務(wù)器上多塊GPU的使用,不是多服務(wù)器多GPU的使用。
在一些實(shí)驗(yàn)中,由于Batch_size的限制或者希望提高訓(xùn)練速度等原因,我們需要使用多塊GPU。本文針對(duì)Pytorch中多塊GPU的使用進(jìn)行說(shuō)明。
1. 設(shè)置需要使用的GPU編號(hào)
import os os.environ["CUDA_VISIBLE_DEVICES"] = "0,4" ids = [0,1]
比如我們需要使用第0和第4塊GPU,只用上述三行代碼即可。
其中第二行指程序只能看到第1塊和第4塊GPU;
第三行的0即為第二行中編號(hào)為0的GPU;1即為編號(hào)為4的GPU。
2.更改網(wǎng)絡(luò),可以理解為將網(wǎng)絡(luò)放入GPU
class CNN(nn.Module): def __init__(self): super(CNN,self).__init__() self.conv1 = nn.Sequential( ...... ) ...... self.out = nn.Linear(Liner_input,2) ...... def forward(self,x): x = self.conv1(x) ...... output = self.out(x) return output,x cnn = CNN() # 更改,.cuda()表示將本存儲(chǔ)到CPU的網(wǎng)絡(luò)及其參數(shù)存儲(chǔ)到GPU! cnn.cuda()
3. 更改輸出數(shù)據(jù)(如向量/矩陣/張量):
for epoch in range(EPOCH): epoch_loss = 0. for i, data in enumerate(train_loader2): image = data['image'] # data是字典,我們需要改的是其中的image #############更改?。?!################## image = Variable(image).float().cuda() ############################################ label = inputs['label'] #############更改?。?!################## label = Variable(label).type(torch.LongTensor).cuda() ############################################ label = label.resize(BATCH_SIZE) output = cnn(image)[0] loss = loss_func(output, label) # cross entropy loss optimizer.zero_grad() # clear gradients for this training step loss.backward() # backpropagation, compute gradients optimizer.step() ... ...
4. 更改其他CPU與GPU沖突的地方
有些函數(shù)必要在GPU上完成,例如將Tensor轉(zhuǎn)換為Numpy,就要使用data.cpu().numpy(),其中data是GPU上的Tensor。
若直接使用data.numpy()則會(huì)報(bào)錯(cuò)。除此之外,plot等也需要在CPU中完成。如果不是很清楚哪里要改的話可以先不改,等到程序報(bào)錯(cuò)了,再哪里錯(cuò)了改哪里,效率會(huì)更高。例如:
... ... ################################################# pred_y = torch.max(test_train_output, 1)[1].data.cpu().numpy() accuracy = float((pred_y == label.cpu().numpy()).astype(int).sum()) / float(len(label.cpu().numpy()))
假如不加.cpu()便會(huì)報(bào)錯(cuò),此時(shí)再改即可。
5. 更改前向傳播函數(shù),從而使用多塊GPU
以VGG為例:
class VGG(nn.Module): def __init__(self, features, num_classes=2, init_weights=True): super(VGG, self).__init__() ... ... def forward(self, x): #x = self.features(x) #################Multi GPUS############################# x = nn.parallel.data_parallel(self.features,x,ids) x = x.view(x.size(0), -1) # x = self.classifier(x) x = nn.parallel.data_parallel(self.classifier,x,ids) return x ... ...
然后就可以看運(yùn)行結(jié)果啦,nvidia-smi查看GPU使用情況:
可以看到0和4都被使用啦
以上是“Pytorch中如何使用多塊GPU”這篇文章的所有內(nèi)容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內(nèi)容對(duì)大家有所幫助,如果還想學(xué)習(xí)更多知識(shí),歡迎關(guān)注億速云行業(yè)資訊頻道!
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。