溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點(diǎn)擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

pytorch如何實(shí)現(xiàn)加載語音類的數(shù)據(jù)集

發(fā)布時(shí)間:2020-11-11 15:01:50 來源:億速云 閱讀:413 作者:Leah 欄目:開發(fā)技術(shù)

pytorch如何實(shí)現(xiàn)加載語音類的數(shù)據(jù)集?很多新手對此不是很清楚,為了幫助大家解決這個(gè)難題,下面小編將為大家詳細(xì)講解,有這方面需求的人可以來學(xué)習(xí)下,希望你能有所收獲。

  pytorch對一下常用的公開數(shù)據(jù)集有很方便的API接口,但是當(dāng)我們需要使用自己的數(shù)據(jù)集訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí),就需要自定義數(shù)據(jù)集,在pytorch中,提供了一些類,方便我們定義自己的數(shù)據(jù)集合

  • torch.utils.data.Dataset:所有繼承他的子類都應(yīng)該重寫  __len()__  , __getitem()__ 這兩個(gè)方法
    •  __len()__ :返回?cái)?shù)據(jù)集中數(shù)據(jù)的數(shù)量
    •   __getitem()__ :返回支持下標(biāo)索引方式獲取的一個(gè)數(shù)據(jù)
  • torch.utils.data.DataLoader:對數(shù)據(jù)集進(jìn)行包裝,可以設(shè)置batch_size、是否shuffle....
     

第一步

  自定義的 Dataset 都需要繼承 torch.utils.data.Dataset 類,并且重寫它的兩個(gè)成員方法:

  • __len()__:讀取數(shù)據(jù),返回?cái)?shù)據(jù)和標(biāo)簽
  • __getitem()__:返回?cái)?shù)據(jù)集的長度
     
from torch.utils.data import Dataset


class AudioDataset(Dataset):
 def __init__(self, ...):
 """類的初始化"""
 pass

 def __getitem__(self, item):
 """每次怎么讀數(shù)據(jù),返回?cái)?shù)據(jù)和標(biāo)簽"""
 return data, label

 def __len__(self):
 """返回整個(gè)數(shù)據(jù)集的長度"""
 return total

注意事項(xiàng):Dataset只負(fù)責(zé)數(shù)據(jù)的抽象,一次調(diào)用getiitem只返回一個(gè)樣本

案例:

  文件目錄結(jié)構(gòu)

  • p225
    • ***.wav
    • ***.wav
    • ***.wav
    • ...
  • dataset.py
     

目的:讀取p225文件夾中的音頻數(shù)據(jù)

class AudioDataset(Dataset):
 def __init__(self, data_folder, sr=16000, dimension=8192):
 self.data_folder = data_folder
 self.sr = sr
 self.dim = dimension

 # 獲取音頻名列表
 self.wav_list = []
 for root, dirnames, filenames in os.walk(data_folder):
 for filename in fnmatch.filter(filenames, "*.wav"): # 實(shí)現(xiàn)列表特殊字符的過濾或篩選,返回符合匹配“.wav”字符列表
 self.wav_list.append(os.path.join(root, filename))

 def __getitem__(self, item):
 # 讀取一個(gè)音頻文件,返回每個(gè)音頻數(shù)據(jù)
 filename = self.wav_list[item]
 wb_wav, _ = librosa.load(filename, sr=self.sr)

 # 取 幀
 if len(wb_wav) >= self.dim:
 max_audio_start = len(wb_wav) - self.dim
 audio_start = np.random.randint(0, max_audio_start)
 wb_wav = wb_wav[audio_start: audio_start + self.dim]
 else:
 wb_wav = np.pad(wb_wav, (0, self.dim - len(wb_wav)), "constant")

 return wb_wav, filename

 def __len__(self):
 # 音頻文件的總數(shù)
 return len(self.wav_list)

注意事項(xiàng):19-24行:每個(gè)音頻的長度不一樣,如果直接讀取數(shù)據(jù)返回出來的話,會造成維度不匹配而報(bào)錯(cuò),因此只能每次取一個(gè)音頻文件讀取一幀,這樣顯然并沒有用到所有的語音數(shù)據(jù),

第二步

  實(shí)例化 Dataset 對象

Dataset= AudioDataset("./p225", sr=16000)

如果要通過batch讀取數(shù)據(jù)的可直接跳到第三步,如果你想一個(gè)一個(gè)讀取數(shù)據(jù)的可以看我接下來的操作

# 實(shí)例化AudioDataset對象
train_set = AudioDataset("./p225", sr=16000)

for i, data in enumerate(train_set):
 wb_wav, filname = data
 print(i, wb_wav.shape, filname)

 if i == 3:
 break
 # 0 (8192,) ./p225\p225_001.wav
 # 1 (8192,) ./p225\p225_002.wav
 # 2 (8192,) ./p225\p225_003.wav
 # 3 (8192,) ./p225\p225_004.wav

第三步

  如果想要通過batch讀取數(shù)據(jù),需要使用DataLoader進(jìn)行包裝

為何要使用DataLoader?

  • 深度學(xué)習(xí)的輸入是mini_batch形式
  • 樣本加載時(shí)候可能需要隨機(jī)打亂順序,shuffle操作
  • 樣本加載需要采用多線程
     

  pytorch提供的 DataLoader 封裝了上述的功能,這樣使用起來更方便。

DataLoader(dataset, batch_size=1, shuffle=False, sampler=None, num_workers=0, collate_fn=default_collate, pin_memory=False, drop_last=False)

參數(shù):

  • dataset:加載的數(shù)據(jù)集(Dataset對象)
  • batch_size:每個(gè)批次要加載多少個(gè)樣本(默認(rèn)值:1)
  • shuffle:每個(gè)epoch是否將數(shù)據(jù)打亂
  • sampler:定義從數(shù)據(jù)集中抽取樣本的策略。如果指定,則不能指定洗牌。
  • batch_sampler:類似于sampler,但每次返回一批索引。與batch_size、shuffle、sampler和drop_last相互排斥。
  • num_workers:使用多進(jìn)程加載的進(jìn)程數(shù),0代表不使用多線程
  • collate_fn:如何將多個(gè)樣本數(shù)據(jù)拼接成一個(gè)batch,一般使用默認(rèn)拼接方式
  • pin_memory:是否將數(shù)據(jù)保存在pin memory區(qū),pin memory中的數(shù)據(jù)轉(zhuǎn)到GPU會快一些
  • drop_last:dataset中的數(shù)據(jù)個(gè)數(shù)可能不是batch_size的整數(shù)倍,drop_last為True會將多出來不足一個(gè)batch的數(shù)據(jù)丟棄
     

返回:數(shù)據(jù)加載器

案例:

# 實(shí)例化AudioDataset對象
train_set = AudioDataset("./p225", sr=16000)
train_loader = DataLoader(train_set, batch_size=8, shuffle=True)

for (i, data) in enumerate(train_loader):
 wav_data, wav_name = data
 print(wav_data.shape) # torch.Size([8, 8192])
 print(i, wav_name)
 # ('./p225\\p225_293.wav', './p225\\p225_156.wav', './p225\\p225_277.wav', './p225\\p225_210.wav',
 # './p225\\p225_126.wav', './p225\\p225_021.wav', './p225\\p225_257.wav', './p225\\p225_192.wav')

我們來吃幾個(gè)栗子消化一下:

栗子1

  這個(gè)例子就是本文一直舉例的,栗子1只是合并了一下而已

  文件目錄結(jié)構(gòu)

  • p225
    • ***.wav
    • ***.wav
    • ***.wav
    • ...
  • dataset.py
     

目的:讀取p225文件夾中的音頻數(shù)據(jù)

import fnmatch
import os
import librosa
import numpy as np
from torch.utils.data import Dataset
from torch.utils.data import DataLoader


class Aduio_DataLoader(Dataset):
 def __init__(self, data_folder, sr=16000, dimension=8192):
 self.data_folder = data_folder
 self.sr = sr
 self.dim = dimension

 # 獲取音頻名列表
 self.wav_list = []
 for root, dirnames, filenames in os.walk(data_folder):
  for filename in fnmatch.filter(filenames, "*.wav"): # 實(shí)現(xiàn)列表特殊字符的過濾或篩選,返回符合匹配“.wav”字符列表
  self.wav_list.append(os.path.join(root, filename))

 def __getitem__(self, item):
 # 讀取一個(gè)音頻文件,返回每個(gè)音頻數(shù)據(jù)
 filename = self.wav_list[item]
 print(filename)
 wb_wav, _ = librosa.load(filename, sr=self.sr)

 # 取 幀
 if len(wb_wav) >= self.dim:
  max_audio_start = len(wb_wav) - self.dim
  audio_start = np.random.randint(0, max_audio_start)
  wb_wav = wb_wav[audio_start: audio_start + self.dim]
 else:
  wb_wav = np.pad(wb_wav, (0, self.dim - len(wb_wav)), "constant")

 return wb_wav, filename

 def __len__(self):
 # 音頻文件的總數(shù)
 return len(self.wav_list)


train_set = Aduio_DataLoader("./p225", sr=16000)
train_loader = DataLoader(train_set, batch_size=8, shuffle=True)


for (i, data) in enumerate(train_loader):
 wav_data, wav_name = data
 print(wav_data.shape) # torch.Size([8, 8192])
 print(i, wav_name)
 # ('./p225\\p225_293.wav', './p225\\p225_156.wav', './p225\\p225_277.wav', './p225\\p225_210.wav',
 # './p225\\p225_126.wav', './p225\\p225_021.wav', './p225\\p225_257.wav', './p225\\p225_192.wav')

注意事項(xiàng):

  1. 27-33行:每個(gè)音頻的長度不一樣,如果直接讀取數(shù)據(jù)返回出來的話,會造成維度不匹配而報(bào)錯(cuò),因此只能每次取一個(gè)音頻文件讀取一幀,這樣顯然并沒有用到所有的語音數(shù)據(jù),
  2. 48行:我們在__getitem__中并沒有將numpy數(shù)組轉(zhuǎn)換為tensor格式,可是第48行顯示數(shù)據(jù)是tensor格式的。這里需要引起注意
     

栗子2

  相比于案例1,案例二才是重點(diǎn),因?yàn)槲覀儾豢赡苊看沃粡囊灰纛l文件中讀取一幀,然后讀取另一個(gè)音頻文件,通常情況下,一段音頻有很多幀,我們需要的是按順序的讀取一個(gè)batch_size的音頻幀,先讀取第一個(gè)音頻文件,如果滿足一個(gè)batch,則不用讀取第二個(gè)batch,如果不足一個(gè)batch則讀取第二個(gè)音頻文件,來補(bǔ)充。

  我給出一個(gè)建議,先按順序讀取每個(gè)音頻文件,以窗長8192、幀移4096對語音進(jìn)行分幀,然后拼接。得到(幀數(shù),幀長,1)(frame_num, frame_len, 1)的數(shù)組保存到h6中。然后用上面講到的 torch.utils.data.Dataset 和 torch.utils.data.DataLoader 讀取數(shù)據(jù)。

具體實(shí)現(xiàn)代碼:

  第一步:創(chuàng)建一個(gè)H5_generation腳本用來將數(shù)據(jù)轉(zhuǎn)換為h6格式文件:

  第二步:通過Dataset從h6格式文件中讀取數(shù)據(jù)

import numpy as np
from torch.utils.data import Dataset
from torch.utils.data import DataLoader
import h6py

def load_h6(h6_path):
 # load training data
 with h6py.File(h6_path, 'r') as hf:
 print('List of arrays in input file:', hf.keys())
 X = np.array(hf.get('data'), dtype=np.float32)
 Y = np.array(hf.get('label'), dtype=np.float32)
 return X, Y


class AudioDataset(Dataset):
 """數(shù)據(jù)加載器"""
 def __init__(self, data_folder):
 self.data_folder = data_folder
 self.X, self.Y = load_h6(data_folder) # (3392, 8192, 1)

 def __getitem__(self, item):
 # 返回一個(gè)音頻數(shù)據(jù)
 X = self.X[item]
 Y = self.Y[item]

 return X, Y

 def __len__(self):
 return len(self.X)


train_set = AudioDataset("./speaker225_resample_train.h6")
train_loader = DataLoader(train_set, batch_size=64, shuffle=True, drop_last=True)


for (i, wav_data) in enumerate(train_loader):
 X, Y = wav_data
 print(i, X.shape)
 # 0 torch.Size([64, 8192, 1])
 # 1 torch.Size([64, 8192, 1])
 # ...

看完上述內(nèi)容是否對您有幫助呢?如果還想對相關(guān)知識有進(jìn)一步的了解或閱讀更多相關(guān)文章,請關(guān)注億速云行業(yè)資訊頻道,感謝您對億速云的支持。

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI