您好,登錄后才能下訂單哦!
這篇文章主要講解了如何實現(xiàn)Tensorflow卷積和手寫python代碼實現(xiàn)卷積的方法,內(nèi)容清晰明了,對此有興趣的小伙伴可以學(xué)習(xí)一下,相信大家閱讀完之后會有幫助。
從一個通道的圖片進行卷積生成新的單通道圖的過程很容易理解,對于多個通道卷積后生成多個通道的圖理解起來有點抽象。本文以通俗易懂的方式講述卷積,并輔以圖片解釋,能快速理解卷積的實現(xiàn)原理。最后手寫python代碼實現(xiàn)卷積過程,讓Tensorflow卷積在我們面前不再是黑箱子!
注意:
本文只針對batch_size=1,padding='SAME',stride=[1,1,1,1]進行實驗和解釋,其他如果不是這個參數(shù)設(shè)置,原理也是一樣。
1 Tensorflow卷積實現(xiàn)原理
先看一下卷積實現(xiàn)原理,對于in_c個通道的輸入圖,如果需要經(jīng)過卷積后輸出out_c個通道圖,那么總共需要in_c * out_c個卷積核參與運算。參考下圖:
如上圖,輸入為[h:5,w:5,c:4],那么對應(yīng)輸出的每個通道,需要4個卷積核。上圖中,輸出為3個通道,所以總共需要3*4=12個卷積核。對于單個輸出通道中的每個點,取值為對應(yīng)的一組4個不同的卷積核經(jīng)過卷積計算后的和。
接下來,我們以輸入為2個通道寬高分別為5的輸入、3*3的卷積核、1個通道寬高分別為5的輸出,作為一個例子展開。
2個通道,5*5的輸入定義如下:
#輸入,shape=[c,h,w] input_data=[ [[1,0,1,2,1], [0,2,1,0,1], [1,1,0,2,0], [2,2,1,1,0], [2,0,1,2,0]], [[2,0,2,1,1], [0,1,0,0,2], [1,0,0,2,1], [1,1,2,1,0], [1,0,1,1,1]], ]
對于輸出為1通道m(xù)ap,根據(jù)前面計算方法,需要2*1個卷積核。定義卷積核如下:
#卷積核,shape=[in_c,k,k]=[2,3,3] weights_data=[ [[ 1, 0, 1], [-1, 1, 0], [ 0,-1, 0]], [[-1, 0, 1], [ 0, 0, 1], [ 1, 1, 1]] ]
上面定義的數(shù)據(jù),在接下來的計算對應(yīng)關(guān)系將按下圖所描述的方式進行。
由于Tensorflow定義的tensor的shape為[n,h,w,c],這里我們可以直接把n設(shè)為1,即batch size為1。還有一個問題,就是我們剛才定義的輸入為[c,h,w],所以需要將[c,h,w]轉(zhuǎn)為[h,w,c]。轉(zhuǎn)換方式如下,注釋已經(jīng)解釋很詳細(xì),這里不再解釋。
def get_shape(tensor): [s1,s2,s3]= tensor.get_shape() s1=int(s1) s2=int(s2) s3=int(s3) return s1,s2,s3 def chw2hwc(chw_tensor): [c,h,w]=get_shape(chw_tensor) cols=[] for i in range(c): #每個通道里面的二維數(shù)組轉(zhuǎn)為[w*h,1]即1列 line = tf.reshape(chw_tensor[i],[h*w,1]) cols.append(line) #橫向連接,即將所有豎直數(shù)組橫向排列連接 input = tf.concat(cols,1)#[w*h,c] #[w*h,c]-->[h,w,c] input = tf.reshape(input,[h,w,c]) return input
同理,Tensorflow使用卷積核的時候,使用的格式是[k,k,in_c,out_c]。而我們在定義卷積核的時候,是按[in_c,k,k]的方式定義的,這里需要將[in_c,k,k]轉(zhuǎn)為[k,k,in_c],由于為了簡化工作量,我們規(guī)定輸出為1個通道,即out_c=1。所以這里我們可以直接簡單地對weights_data調(diào)用chw2hwc,再在第3維度擴充一下即可。
接下來,貼出完整的代碼:
import tensorflow as tf import numpy as np input_data=[ [[1,0,1,2,1], [0,2,1,0,1], [1,1,0,2,0], [2,2,1,1,0], [2,0,1,2,0]], [[2,0,2,1,1], [0,1,0,0,2], [1,0,0,2,1], [1,1,2,1,0], [1,0,1,1,1]], ] weights_data=[ [[ 1, 0, 1], [-1, 1, 0], [ 0,-1, 0]], [[-1, 0, 1], [ 0, 0, 1], [ 1, 1, 1]] ] def get_shape(tensor): [s1,s2,s3]= tensor.get_shape() s1=int(s1) s2=int(s2) s3=int(s3) return s1,s2,s3 def chw2hwc(chw_tensor): [c,h,w]=get_shape(chw_tensor) cols=[] for i in range(c): #每個通道里面的二維數(shù)組轉(zhuǎn)為[w*h,1]即1列 line = tf.reshape(chw_tensor[i],[h*w,1]) cols.append(line) #橫向連接,即將所有豎直數(shù)組橫向排列連接 input = tf.concat(cols,1)#[w*h,c] #[w*h,c]-->[h,w,c] input = tf.reshape(input,[h,w,c]) return input def hwc2chw(hwc_tensor): [h,w,c]=get_shape(hwc_tensor) cs=[] for i in range(c): #[h,w]-->[1,h,w] channel=tf.expand_dims(hwc_tensor[:,:,i],0) cs.append(channel) #[1,h,w]...[1,h,w]---->[c,h,w] input = tf.concat(cs,0)#[c,h,w] return input def tf_conv2d(input,weights): conv = tf.nn.conv2d(input, weights, strides=[1, 1, 1, 1], padding='SAME') return conv def main(): const_input = tf.constant(input_data , tf.float32) const_weights = tf.constant(weights_data , tf.float32 ) input = tf.Variable(const_input,name="input") #[2,5,5]------>[5,5,2] input=chw2hwc(input) #[5,5,2]------>[1,5,5,2] input=tf.expand_dims(input,0) weights = tf.Variable(const_weights,name="weights") #[2,3,3]-->[3,3,2] weights=chw2hwc(weights) #[3,3,2]-->[3,3,2,1] weights=tf.expand_dims(weights,3) #[b,h,w,c] conv=tf_conv2d(input,weights) rs=hwc2chw(conv[0]) init=tf.global_variables_initializer() sess=tf.Session() sess.run(init) conv_val = sess.run(rs) print(conv_val[0]) if __name__=='__main__': main()
上面代碼有幾個地方需要提一下,
由于輸出通道為1,因此可以對卷積核數(shù)據(jù)轉(zhuǎn)換的時候直接調(diào)用chw2hwc,如果輸入通道不為1,則不能這樣完成轉(zhuǎn)換。
輸入完成chw轉(zhuǎn)hwc后,記得在第0維擴充維數(shù),因為卷積要求輸入為[n,h,w,c]
為了方便我們查看結(jié)果,記得將hwc的shape轉(zhuǎn)為chw
執(zhí)行上面代碼,運行結(jié)果如下:
[[ 2. 0. 2. 4. 0.] [ 1. 4. 4. 3. 5.] [ 4. 3. 5. 9. -1.] [ 3. 4. 6. 2. 1.] [ 5. 3. 5. 1. -2.]]
這個計算結(jié)果是怎么計算出來的?為了讓大家更清晰的學(xué)習(xí)其中細(xì)節(jié),我特地制作了一個GIF圖,看完這個圖后,如果你還看不懂卷積的計算過程,你可以來打我。。。。
2 手寫Python代碼實現(xiàn)卷積
自己實現(xiàn)卷積時,就無須將定義的數(shù)據(jù)[c,h,w]轉(zhuǎn)為[h,w,c]了。
import numpy as np input_data=[ [[1,0,1,2,1], [0,2,1,0,1], [1,1,0,2,0], [2,2,1,1,0], [2,0,1,2,0]], [[2,0,2,1,1], [0,1,0,0,2], [1,0,0,2,1], [1,1,2,1,0], [1,0,1,1,1]] ] weights_data=[ [[ 1, 0, 1], [-1, 1, 0], [ 0,-1, 0]], [[-1, 0, 1], [ 0, 0, 1], [ 1, 1, 1]] ] #fm:[h,w] #kernel:[k,k] #return rs:[h,w] def compute_conv(fm,kernel): [h,w]=fm.shape [k,_]=kernel.shape r=int(k/2) #定義邊界填充0后的map padding_fm=np.zeros([h+2,w+2],np.float32) #保存計算結(jié)果 rs=np.zeros([h,w],np.float32) #將輸入在指定該區(qū)域賦值,即除了4個邊界后,剩下的區(qū)域 padding_fm[1:h+1,1:w+1]=fm #對每個點為中心的區(qū)域遍歷 for i in range(1,h+1): for j in range(1,w+1): #取出當(dāng)前點為中心的k*k區(qū)域 roi=padding_fm[i-r:i+r+1,j-r:j+r+1] #計算當(dāng)前點的卷積,對k*k個點點乘后求和 rs[i-1][j-1]=np.sum(roi*kernel) return rs def my_conv2d(input,weights): [c,h,w]=input.shape [_,k,_]=weights.shape outputs=np.zeros([h,w],np.float32) #對每個feature map遍歷,從而對每個feature map進行卷積 for i in range(c): #feature map==>[h,w] f_map=input[i] #kernel ==>[k,k] w=weights[i] rs =compute_conv(f_map,w) outputs=outputs+rs return outputs def main(): #shape=[c,h,w] input = np.asarray(input_data,np.float32) #shape=[in_c,k,k] weights = np.asarray(weights_data,np.float32) rs=my_conv2d(input,weights) print(rs) if __name__=='__main__': main()
代碼無須太多解釋,直接看注釋。然后跑出來的結(jié)果如下:
[[ 2. 0. 2. 4. 0.] [ 1. 4. 4. 3. 5.] [ 4. 3. 5. 9. -1.] [ 3. 4. 6. 2. 1.] [ 5. 3. 5. 1. -2.]]
對比發(fā)現(xiàn),跟Tensorflow的卷積結(jié)果是一樣的。
看完上述內(nèi)容,是不是對如何實現(xiàn)Tensorflow卷積和手寫python代碼實現(xiàn)卷積的方法有進一步的了解,如果還想學(xué)習(xí)更多內(nèi)容,歡迎關(guān)注億速云行業(yè)資訊頻道。
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。