您好,登錄后才能下訂單哦!
聽名字就知道這個函數(shù)是用來求tensor中某個dim的前k大或者前k小的值以及對應(yīng)的index。
用法
torch.topk(input, k, dim=None, largest=True, sorted=True, out=None) -> (Tensor, LongTensor)
input:一個tensor數(shù)據(jù)
k:指明是得到前k個數(shù)據(jù)以及其index
dim: 指定在哪個維度上排序, 默認是最后一個維度
largest:如果為True,按照大到小排序; 如果為False,按照小到大排序
sorted:返回的結(jié)果按照順序返回
out:可缺省,不要
topk最常用的場合就是求一個樣本被網(wǎng)絡(luò)認為前k個最可能屬于的類別。我們就用這個場景為例,說明函數(shù)的使用方法。
假設(shè)一個,N是樣本數(shù)目,一般等于batch size, D是類別數(shù)目。我們想知道每個樣本的最可能屬于的那個類別,其實可以用torch.max得到。如果要使用topk,則k應(yīng)該設(shè)置為1。
import torch pred = torch.randn((4, 5)) print(pred) values, indices = pred.topk(1, dim=1, largest=True, sorted=True) print(indices) # 用max得到的結(jié)果,設(shè)置keepdim為True,避免降維。因為topk函數(shù)返回的index不降維,shape和輸入一致。 _, indices_max = pred.max(dim=1, keepdim=True) print(indices_max == indices) # pred tensor([[-0.1480, -0.9819, -0.3364, 0.7912, -0.3263], [-0.8013, -0.9083, 0.7973, 0.1458, -0.9156], [-0.2334, -0.0142, -0.5493, 0.0673, 0.8185], [-0.4075, -0.1097, 0.8193, -0.2352, -0.9273]]) # indices, shape為 【4,1】, tensor([[3], #【0,0】代表 第一個樣本最可能屬于第一類別 [2], # 【1, 0】代表第二個樣本最可能屬于第二類別 [4], [2]]) # indices_max等于indices tensor([[True], [True], [True], [True]])
現(xiàn)在在嘗試一下k=2
import torch pred = torch.randn((4, 5)) print(pred) values, indices = pred.topk(2, dim=1, largest=True, sorted=True) # k=2 print(indices) # pred tensor([[-0.2203, -0.7538, 1.8789, 0.4451, -0.2526], [-0.0413, 0.6366, 1.1155, 0.3484, 0.0395], [ 0.0365, 0.5158, 1.1067, -0.9276, -0.2124], [ 0.6232, 0.9912, -0.8562, 0.0148, 1.6413]]) # indices tensor([[2, 3], [2, 1], [2, 1], [4, 1]])
可以發(fā)現(xiàn)indices的shape變成了【4, k】,k=2。
其中indices[0] = [2,3]。其意義是說明第一個樣本的前兩個最大概率對應(yīng)的類別分別是第3類和第4類。
大家可以自行print一下values??梢园l(fā)現(xiàn)values的shape和indices的shape是一樣的。indices描述了在values中對應(yīng)的值在pred中的位置。
以上這篇PyTorch中topk函數(shù)的用法詳解就是小編分享給大家的全部內(nèi)容了,希望能給大家一個參考,也希望大家多多支持億速云。
免責聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。