溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點(diǎn)擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

Pytorch中的5個非常有用的張量操作分別是什么

發(fā)布時間:2021-12-04 18:38:12 來源:億速云 閱讀:163 作者:柒染 欄目:大數(shù)據(jù)

Pytorch中的5個非常有用的張量操作分別是什么,針對這個問題,這篇文章詳細(xì)介紹了相對應(yīng)的分析和解答,希望可以幫助更多想解決這個問題的小伙伴找到更簡單易行的方法。

導(dǎo)讀  

雖然也有其他方式可以實(shí)現(xiàn)相同的效果,但是這幾個操作可以讓使用更加方便。

PyTorch是一個基于Python的科學(xué)包,用于使用一種稱為張量的特殊數(shù)據(jù)類型執(zhí)行高級操作。張量是具有規(guī)則形狀和相同數(shù)據(jù)類型的數(shù)字、向量、矩陣或多維數(shù)組。PyTorch是NumPy包的另一種選擇,它可以在GPU下使用。它也被用作進(jìn)行深度學(xué)習(xí)研究的框架。

Pytorch中的5個非常有用的張量操作分別是什么

這5個操作是:

  • expand()
  • permute()
  • tolist()
  • narrow()
  • where()
 

1. expand()

將現(xiàn)有張量沿著值為1的維度擴(kuò)展到新的維度。張量可以同時沿著任意一維或多維展開。如果你不想沿著一個特定的維度展開張量,你可以設(shè)置它的參數(shù)值為-1。

注意:只能擴(kuò)展單個維度

# Example 1 - working 
a=torch.tensor([[[1,2,3],[4,5,6]]])
a.size()
>>torch.Size([1, 2, 3])

a.expand(2,2,3)
>>tensor([[[1, 2, 3],
         [4, 5, 6]],

        [[1, 2, 3],
         [4, 5, 6]]])
 

在這個例子中,張量的原始維數(shù)是[1,2,3]。它被擴(kuò)展到[2,2,3]。

 

2. permute()

這個函數(shù)返回一個張量的視圖,原始張量的維數(shù)根據(jù)我們的選擇而改變。例如,如果原來的維數(shù)是[1,2,3],我們可以將它改為[3,2,1]。該函數(shù)以所需的維數(shù)順序作為參數(shù)。

# Example 1 - working
a=torch.tensor([[[1,2,3],[4,5,6]]])
a.size()
>>torch.Size([1, 2, 3])

a.permute(2,1,0).size()
>>torch.Size([3, 2, 1])

a.permute(2,1,0)
>>tensor([[[1],
         [4]],

        [[2],
         [5]],

        [[3],
         [6]]])
 

在這個例子中,原始張量的維度是[1,2,3]。使用permuting,我將順序設(shè)置為(2,1,0),這意味著新的維度應(yīng)該是[3,2,1]。如圖所示,張量的新視圖重新排列了數(shù)字,使得張量的維度為[3,2,1]。

當(dāng)我們想要對不同維數(shù)的張量進(jìn)行重新排序,或者用不同階數(shù)的矩陣進(jìn)行矩陣乘法時,可以使用這個函數(shù)。

 

3. tolist()

這個函數(shù)以Python數(shù)字、列表或嵌套列表的形式返回張量。在此之后,我們可以對它執(zhí)行任何python邏輯和操作。

# Example 1 - working
a=torch.tensor([[1,2,3],[4,5,6]])
a.tolist()
>> [[1, 2, 3], [4, 5, 6]]
 

在這個例子中,張量以嵌套列表的形式返回。

 

4. narrow()

這個函數(shù)返回一個新的張量,這個張量是原來張量的縮小版。這個函數(shù)的參數(shù)是輸入張量、要縮小的維數(shù)、起始索引和新張量沿該維數(shù)的長度。它返回從索引start到索引(start+length-1)中的元素。

# Example 1 - working
a=torch.tensor([[1,2,3,4],[5,6,7,8],[9,10,11,12],[14,15,16,17]])
torch.narrow(a,1,2,2)
>> tensor([[ 3,  4],
        [ 7,  8],
        [11, 12],
        [16, 17]])
 

在這個例子中,張量要沿著第2維,也就是最里面的維度縮小。它接受列表中的元素,從索引2開始,到索引3(=2+2 -1,即start+length-1)。

Narrow()的工作原理類似于高級索引。例如,在一個2D張量中,使用[:,0:5]選擇列0到5中的所有行。同樣的,可以使用torch.narrow(1,0,5)。然而,在高維張量中,對于每個維度都使用range操作是很麻煩的。使用narrow()可以更快更方便地實(shí)現(xiàn)這一點(diǎn)。

 

5. where()

這個函數(shù)返回一個新的張量,其值在每個索引處都根據(jù)給定條件改變。這個函數(shù)的參數(shù)有:條件,第一個張量和第二個張量。在每個張量的值上檢查條件(在條件中使用),如果為真,就用第一個張量中相同位置的值代替,如果為假,就用第二個張量中相同位置的值代替。

# Example 1 - working
a=torch.tensor([[[1,2,3],[4,5,6]]]).to(torch.float32)
b=torch.zeros(1,2,3)
torch.where(a%2==0,b,a)
>>tensor([[[1., 0., 3.],
         [0., 5., 0.]]])
 

這里,它檢查張量a的值是否是偶數(shù)。如果是,則用張量b中的值替換,b中的值都是0,否則還是和原來一樣。

此函數(shù)可用于設(shè)定閾值。如果張量中的值大于或小于某一數(shù)值,它們可以很容易地被替換。

關(guān)于Pytorch中的5個非常有用的張量操作分別是什么問題的解答就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,如果你還有很多疑惑沒有解開,可以關(guān)注億速云行業(yè)資訊頻道了解更多相關(guān)知識。

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報,并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI