溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶服務(wù)條款》

如何在TensorFlow中使用tf.batch_matmul()

發(fā)布時(shí)間:2021-06-02 16:23:03 來(lái)源:億速云 閱讀:236 作者:Leah 欄目:開(kāi)發(fā)技術(shù)

今天就跟大家聊聊有關(guān)如何在TensorFlow中使用tf.batch_matmul(),可能很多人都不太了解,為了讓大家更加了解,小編給大家總結(jié)了以下內(nèi)容,希望大家根據(jù)這篇文章可以有所收獲。

TensorFlow中tf.batch_matmul()用法

如果有兩個(gè)三階張量,size分別為

a.shape = [100, 3, 4]
b.shape = [100, 4, 5]
c = tf.batch_matmul(a, b)

則c.shape = [100, 3, 5] //將每一對(duì) 3x4 的矩陣與 4x5 的矩陣分別相乘。batch_size不變

100為張量的batch_size。剩下的兩個(gè)維度為數(shù)據(jù)的維度。

不過(guò)新版的tensorflow已經(jīng)移除了上面的函數(shù),使用時(shí)換為tf.matmul就可以了。與上面注釋的方式是同樣的。

附: 如果是更高維度。例如(a, b, m, n) 與(a, b, n, k)之間做matmul運(yùn)算。則結(jié)果的維度為(a, b, m, k)。

TensorFlow如何實(shí)現(xiàn)batch_matmul

我們知道,在tensorflow早期版本中有tf.batch_matmul()函數(shù),可以實(shí)現(xiàn)多維tensor和低維tensor的直接相乘,這在使用過(guò)程中非常便捷。

但是最新版本的tensorflow現(xiàn)在只有tf.matmul()函數(shù)可以使用,不過(guò)只能實(shí)現(xiàn)同維度的tensor相乘, 下面的幾種方法可以實(shí)現(xiàn)batch matmul的可能。

例如: tensor A(batch_size,m,n), tensor B(n,k),實(shí)現(xiàn)batch matmul 使得A * B。

方法1: 利用tf.matmul()

對(duì)tensor B 進(jìn)行增維和擴(kuò)展

A = tf.Variable(tf.random_normal(shape=(batch_size, 2, 3)))
B = tf.Variable(tf.random_normal(shape=(3, 5)))
B_exp = tf.tile(tf.expand_dims(B,0),[batch_size, 1, 1]) #先進(jìn)行增維再擴(kuò)展
C = tf.matmul(A, B_exp)

方法2: 利用tf.reshape()

對(duì)tensor A 進(jìn)行reshape操作,然后利用tf.matmul()

A = tf.Variable(tf.random_normal(shape=(batch_size, 2, 3)))
B = tf.Variable(tf.random_normal(shape=(3, 5)))
A = tf.reshape(A, [-1, 3])
C = tf.reshape(tf.matmul(A, B), [-1, 2, 5])

方法3: 利用tf.scan()

利用tf.scan() 對(duì)tensor按第0維進(jìn)行展開(kāi)的特性

A = tf.Variable(tf.random_normal(shape=(batch_size, 2, 3)))
B = tf.Variable(tf.random_normal(shape=(3, 5)))
initializer = tf.Variable(tf.random_normal(shape=(2,5)))
C = tf.scan(lambda a,x: tf.matmul(x, B), A, initializer)

方法4: 利用tf.einsum()

A = tf.Variable(tf.random_normal(shape=(batch_size, 2, 3)))
B = tf.Variable(tf.random_normal(shape=(3, 5)))
C = tf.einsum('ijk,kl->ijl',A,B)

看完上述內(nèi)容,你們對(duì)如何在TensorFlow中使用tf.batch_matmul()有進(jìn)一步的了解嗎?如果還想了解更多知識(shí)或者相關(guān)內(nèi)容,請(qǐng)關(guān)注億速云行業(yè)資訊頻道,感謝大家的支持。

向AI問(wèn)一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI