溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶服務(wù)條款》

pytorch如何實(shí)現(xiàn)對(duì)輸入超過三通道的數(shù)據(jù)進(jìn)行訓(xùn)練

發(fā)布時(shí)間:2021-05-24 13:51:54 來源:億速云 閱讀:162 作者:小新 欄目:開發(fā)技術(shù)

這篇文章主要介紹pytorch如何實(shí)現(xiàn)對(duì)輸入超過三通道的數(shù)據(jù)進(jìn)行訓(xùn)練,文中介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們一定要看完!

案例背景:視頻識(shí)別

假設(shè)每次輸入是8s的灰度視頻,視頻幀率為25fps,則視頻由200幀圖像序列構(gòu)成.每幀是一副單通道的灰度圖像,通過pythonb里面的np.stack(深度拼接)可將200幀拼接成200通道的深度數(shù)據(jù).進(jìn)而送到網(wǎng)絡(luò)里面去訓(xùn)練.

如果輸入圖像200通道覺得多,可以對(duì)視頻進(jìn)行抽幀,針對(duì)具體場(chǎng)景可以隨機(jī)抽幀或等間隔抽幀.比如這里等間隔抽取40幀.則最后輸入視頻相當(dāng)于輸入一個(gè)40通道的圖像數(shù)據(jù)了.

pytorch對(duì)超過三通道數(shù)據(jù)的加載:

讀取視頻每一幀,轉(zhuǎn)為array格式,然后依次將每一幀進(jìn)行深度拼接,最后得到一個(gè)40通道的array格式的深度數(shù)據(jù),保存到pickle里.

對(duì)每個(gè)視頻都進(jìn)行上述操作,保存到pickle里.

我這里將火的視頻深度數(shù)據(jù)保存在一個(gè).pkl文件中,一共2504個(gè)火的視頻,即2504個(gè)火的深度數(shù)據(jù).

將非火的視頻深度數(shù)據(jù)保存在一個(gè).pkl文件中,一共3985個(gè)非火的視頻,即3985個(gè)非火的深度數(shù)據(jù).

數(shù)據(jù)加載

import torch 
from torch.utils import data
import os
from PIL import Image
import numpy as np
import pickle
 
class Fire_Unfire(data.Dataset):
  def __init__(self,fire_path,unfire_path):
    self.pickle_fire = open(fire_path,'rb')
    self.pickle_unfire = open(unfire_path,'rb')
    
  def __getitem__(self,index):
    if index <2504:
      fire = pickle.load(self.pickle_fire)#高*寬*通道
      fire = fire.transpose(2,0,1)#通道*高*寬
      data = torch.from_numpy(fire)
      label = 1
      return data,label
    elif index>=2504 and index<6489:
      unfire = pickle.load(self.pickle_unfire)
      unfire = unfire.transpose(2,0,1)
      data = torch.from_numpy(unfire)
      label = 0
      return data,label
    
  def __len__(self):
    return 6489
root_path = './datasets/train'
dataset = Fire_Unfire(root_path +'/fire_train.pkl',root_path +'/unfire_train.pkl')
 
#轉(zhuǎn)換成pytorch網(wǎng)絡(luò)輸入的格式(批量大小,通道數(shù),高,寬)
from torch.utils.data import DataLoader
fire_dataloader = DataLoader(dataset,batch_size=4,shuffle=True,drop_last = True)

模型訓(xùn)練

import torch
from torch.utils import data
from nets.mobilenet import mobilenet
from config.config import default_config
from torch.autograd import Variable as V
import numpy as np
import sys
import time
 
opt = default_config()
def train():
  #模型定義
  model = mobilenet().cuda()
  if opt.pretrain_model:
    model.load_state_dict(torch.load(opt.pretrain_model))
  
  #損失函數(shù)
  criterion = torch.nn.CrossEntropyLoss().cuda()
  
  #學(xué)習(xí)率
  lr = opt.lr
  
  #優(yōu)化器
  optimizer = torch.optim.SGD(model.parameters(),lr = lr,weight_decay=opt.weight_decay)
  
  
  pre_loss = 0.0
  #訓(xùn)練
  for epoch in range(opt.max_epoch):
     #訓(xùn)練數(shù)據(jù)
    train_data = Fire_Unfire(opt.root_path +'/fire_train.pkl',opt.root_path +'/unfire_train.pkl')
    train_dataloader = data.DataLoader(train_data,batch_size=opt.batch_size,shuffle=True,drop_last = True)
    loss_sum = 0.0
    for i,(datas,labels) in enumerate(train_dataloader):
      #print(i,datas.size(),labels)
      #梯度清零
      optimizer.zero_grad()
      #輸入
      input = V(datas.cuda()).float()
      #目標(biāo)
      target = V(labels.cuda()).long()
      #輸出
      score = model(input).cuda()
      #損失
      loss = criterion(score,target)
      loss_sum += loss
      #反向傳播
      loss.backward()
      #梯度更新
      optimizer.step()      
    print('{}{}{}{}{}'.format('epoch:',epoch,',','loss:',loss))
    torch.save(model.state_dict(),'models/mobilenet_%d.pth'%(epoch+370))

RuntimeError: Expected object of scalar type Long but got scalar type Float for argument #2 'target'

解決方案:target = target.long()

pytorch的優(yōu)點(diǎn)

1.PyTorch是相當(dāng)簡(jiǎn)潔且高效快速的框架;2.設(shè)計(jì)追求最少的封裝;3.設(shè)計(jì)符合人類思維,它讓用戶盡可能地專注于實(shí)現(xiàn)自己的想法;4.與google的Tensorflow類似,F(xiàn)AIR的支持足以確保PyTorch獲得持續(xù)的開發(fā)更新;5.PyTorch作者親自維護(hù)的論壇 供用戶交流和求教問題6.入門簡(jiǎn)單

以上是“pytorch如何實(shí)現(xiàn)對(duì)輸入超過三通道的數(shù)據(jù)進(jìn)行訓(xùn)練”這篇文章的所有內(nèi)容,感謝各位的閱讀!希望分享的內(nèi)容對(duì)大家有幫助,更多相關(guān)知識(shí),歡迎關(guān)注億速云行業(yè)資訊頻道!

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI