您好,登錄后才能下訂單哦!
這篇文章主要為大家展示了“pytorch中Tensor類型的示例分析”,內(nèi)容簡(jiǎn)而易懂,條理清晰,希望能夠幫助大家解決疑惑,下面讓小編帶領(lǐng)大家一起研究并學(xué)習(xí)一下“pytorch中Tensor類型的示例分析”這篇文章吧。
Tensor有不同的數(shù)據(jù)類型,每種類型分別有對(duì)應(yīng)CPU和GPU版本(HalfTensor除外)。默認(rèn)的Tensor是FloatTensor,可通過(guò)torch.set_default_tensor_type修改默認(rèn)tensor類型(如果默認(rèn)類型為GPU tensor,則所有操作都將在GPU上進(jìn)行)。
Tensor的類型對(duì)分析內(nèi)存占用很有幫助,例如,一個(gè)size為(1000,1000,1000)的FloatTensor,它有1000*1000*1000=10^9個(gè)元素,每一個(gè)元素占用32bit/8=4Byte內(nèi)存,所以共占用大約4GB內(nèi)存/顯存。HalfTensor是專為GPU版本設(shè)計(jì)的,同樣的元素個(gè)數(shù),顯存占用只有HalfTensor的一半,所以可以極大緩解GPU顯存不足的問(wèn)題,但是由于HalfTensor所能表示的數(shù)值大小和精度有限,所以可能出現(xiàn)溢出等問(wèn)題。
數(shù)據(jù)類型 | CPU Tensor | GPU Tensor |
32 bit 浮點(diǎn) | torch.FloatTensor | torch.cuda.FloatTensor |
64 bit 浮點(diǎn) | torch.DoubleTensor | torch.cuda.DoubleTensor |
16 bit 半精度浮點(diǎn) | N/A | torch.cuda.HalfTensor |
8 bit 無(wú)符號(hào)整形(0~255) | torch.ByteTensor | torch.cuda.ByteTensor |
8 bit 有符號(hào)整形(-128~127) | torch.CharTensor | torch.cuda.CharTensor |
16 bit 有符號(hào)整形 | torch.ShortTensor | torch.cuda.ShortTensor |
32 bit 有符號(hào)整形 | torch.IntTensor | torch.cuda.IntTensor |
64 bit 有符號(hào)整形 | torch.LongTensor | torch.cuda LongTensor |
各數(shù)據(jù)類型之間可以互相轉(zhuǎn)換,type(new_type)是通用的做法,同時(shí)還有float、long、half等快捷方法。CPU tensor和GPU tensor之間的互換是通過(guò)tensor.cuda和tensor.cpu的方法實(shí)現(xiàn)。
如:
#設(shè)置默認(rèn)tensor,注意參數(shù)是字符串 torch.set_default_tensor_type('torch.IntTensor') a=torch.Tensor(2,3) print(a) #a現(xiàn)在是IntTensor
以上是“pytorch中Tensor類型的示例分析”這篇文章的所有內(nèi)容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內(nèi)容對(duì)大家有所幫助,如果還想學(xué)習(xí)更多知識(shí),歡迎關(guān)注億速云行業(yè)資訊頻道!
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。