您好,登錄后才能下訂單哦!
本篇內(nèi)容介紹了“Pytorch 中的 dim操作介紹”的有關(guān)知識(shí),在實(shí)際案例的操作過程中,不少人都會(huì)遇到這樣的困境,接下來就讓小編帶領(lǐng)大家學(xué)習(xí)一下如何處理這些情況吧!希望大家仔細(xì)閱讀,能夠?qū)W有所成!
Pytorch 中對 tensor 的很多操作如sum
、argmax
、等都可以設(shè)置dim
參數(shù)用來指定操作在哪一維進(jìn)行。Pytorch 中的 dim 類似于 numpy 中的 axis,這篇文章來總結(jié)一下 Pytorch 中的 dim 操作。
創(chuàng)建一個(gè)矩陣
a = torch.tensor([[1, 2], [3, 4]]) print(a)
輸出
tensor([[1, 2], [3, 4]])
因?yàn)?code>a是一個(gè)矩陣,所以a
的左邊有 2 個(gè)括號(hào)
括號(hào)之間是嵌套關(guān)系,代表了不同的維度。從左往右數(shù),兩個(gè)括號(hào)代表的維度分別是 0 和 1 ,在第 0 維遍歷得到向量,在第 1 維遍歷得到標(biāo)量
同樣地,對于 3 維 tensor
b = torch.tensor([[[3, 2], [1, 4]], [[5, 6], [7, 8]]]) print(b)
輸出
tensor([[[3, 2], [1, 4]], [[5, 6], [7, 8]]])
則 3 個(gè)括號(hào)代表的維度從左往右分別為 0, 1, 2,在第 0 維遍歷得到矩陣,在第 1 維遍歷得到向量,在第 2 維遍歷得到標(biāo)量
更詳細(xì)一點(diǎn)
在某一維度求和(或者進(jìn)行其他操作)就是對該維度中的元素進(jìn)行求和。
對于矩陣 a
a = torch.tensor([[1, 2], [3, 4]]) print(a)
輸出
tensor([[1, 2], [3, 4]])
求 a 在第 0 維的和,因?yàn)榈?0 維代表最外邊的括號(hào),括號(hào)中的元素為向量[1, 2]
,[3, 4]
,第 0 維的和就是第 0 維中的元素相加,也就是兩個(gè)向量[1, 2]
,[3, 4]
相加,所以結(jié)果為
s = torch.sum(a, dim=0) print(s)
輸出
tensor([4, 6])
可以看到,a 是 2 維矩陣,而相加的結(jié)果為 1 維向量,可以使用參數(shù)keepdim=True
來保證形狀不變
s = torch.sum(a, dim=0, keepdim=True) print(s)
輸出
tensor([[4, 6]])
在 a 的第 0 維求和,就是對第 0 維中的元素(向量)進(jìn)行相加。同樣的,對 a 第 1 維求和,就是對 a 第 1 維中的元素(標(biāo)量)進(jìn)行相加,a 的第 1 維元素為標(biāo)量 1,2 和 3,4,則結(jié)果為
s = torch.sum(a, dim=1) print(s)
輸出
tensor([3, 7])
保持維度不變
s = torch.sum(a, dim=1, keepdim=True) print(s)
輸出
tensor([[3], [7]])
對 3 維 tensor 的操作也是這樣
b = torch.tensor([[[3, 2], [1, 4]], [[5, 6], [7, 8]]]) print(b)
輸出
tensor([[[3, 2], [1, 4]], [[5, 6], [7, 8]]])
將 b 在第 0 維相加,第 0 維為最外層括號(hào),最外層括號(hào)中的元素為矩陣[[3, 2], [1, 4]]
和[[5, 6], [7, 8]]
。在第 0 維求和,就是將第 0 維中的元素(矩陣)相加
s = torch.sum(b, dim=0) print(s)
輸出
tensor([[ 8, 8], [ 8, 12]])
求 b 在第 1 維的和,就是將 b 第 1 維中的元素[3, 2]
和[1, 4]
,[5, 6]
和[7, 8]
相加,所以
s = torch.sum(b, dim=1) print(s)
輸出
tensor([[ 4, 6], [12, 14]])
則在 b 的第 2 維求和,就是對標(biāo)量 3 和 2, 1 和 4, 5 和 6 , 7 和 8 求和
s = torch.sum(b, dim=2) print(s)
結(jié)果為
tensor([[ 5, 5], [11, 15]])
除了求和,其他操作也是類似的,如求 b 在指定維度上的最大值
m = torch.max(b, dim=0) print(m)
b 在第 0 維的最大值是第 0 維中的元素(兩個(gè)矩陣[[3, 2], [1, 4]]
和[[5, 6], [7, 8]]
)的最大值,取矩陣對應(yīng)位置最大值即可
結(jié)果為
torch.return_types.max( values=tensor([[5, 6], [7, 8]]), indices=tensor([[1, 1], [1, 1]]))
b 在第 1 維的最大值就是第 1 維元素(4 個(gè)(2對)向量)的最大值
m = torch.max(b, dim=1) print(m)
輸出為
torch.return_types.max( values=tensor([[3, 4], [7, 8]]), indices=tensor([[0, 1], [1, 1]]))
b 在第 0 維的最大值就是第 0 為元素(8 個(gè)(4 對)標(biāo)量)的最大值
m = torch.max(b, dim=2) print(m)
輸出
torch.return_types.max( values=tensor([[3, 4], [6, 8]]), indices=tensor([[0, 1], [1, 1]]))
在 tensor 的指定維度操作就是對指定維度包含的元素進(jìn)行操作,如果想要保持結(jié)果的維度不變,設(shè)置參數(shù)keepdim=True
即可。
“Pytorch 中的 dim操作介紹”的內(nèi)容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業(yè)相關(guān)的知識(shí)可以關(guān)注億速云網(wǎng)站,小編將為大家輸出更多高質(zhì)量的實(shí)用文章!
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。