溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶服務(wù)條款》

雙向RNN:bidirectional_dynamic_rnn()函數(shù)怎么用

發(fā)布時(shí)間:2021-07-20 10:50:30 來(lái)源:億速云 閱讀:128 作者:小新 欄目:開(kāi)發(fā)技術(shù)

這篇文章將為大家詳細(xì)講解有關(guān)雙向RNN:bidirectional_dynamic_rnn()函數(shù)怎么用,小編覺(jué)得挺實(shí)用的,因此分享給大家做個(gè)參考,希望大家閱讀完這篇文章后可以有所收獲。

雙向RNN:bidirectional_dynamic_rnn()函數(shù)的使用詳解

先說(shuō)下為什么要使用到雙向RNN,在讀一篇文章的時(shí)候,上文提到的信息十分的重要,但這些信息是不足以捕捉文章信息的,下文隱含的信息同樣會(huì)對(duì)該時(shí)刻的語(yǔ)義產(chǎn)生影響。

舉一個(gè)不太恰當(dāng)?shù)睦?,某次工作?huì)議上,領(lǐng)導(dǎo)進(jìn)行“簡(jiǎn)潔地”總結(jié),他會(huì)在第一句告訴你:“下面,為了節(jié)約時(shí)間,我簡(jiǎn)單地說(shuō)兩點(diǎn)…”,(…此處略去五百字…),“首先,….”,(…此處略去一萬(wàn)字…),“礙于時(shí)間的關(guān)系,我要加快速度了,下面我簡(jiǎn)要說(shuō)下第二點(diǎn)…”(…此處再次略去五千字…)“好的,我想說(shuō)的大概就是這些”(…此處又略去了二百字…),“謝謝大家!”如果將這篇發(fā)言交給一個(gè)單層的RNN網(wǎng)絡(luò)去學(xué)習(xí),因?yàn)椤笆紫取焙汀暗诙c(diǎn)”中間隔得實(shí)在太久,等到開(kāi)始學(xué)習(xí)“第二點(diǎn)”時(shí),網(wǎng)絡(luò)已經(jīng)忘記了“簡(jiǎn)單地說(shuō)兩點(diǎn)”這個(gè)重要的信息,最終的結(jié)果就只剩下在風(fēng)中凌亂了。。。于是我們決定加一個(gè)反向的網(wǎng)絡(luò),從后開(kāi)始往前聽(tīng),對(duì)于這層網(wǎng)絡(luò),他首先聽(tīng)到的就是“第二點(diǎn)”,然后是“首先”,最后,他對(duì)比了一下果然僅僅是“簡(jiǎn)要地兩點(diǎn)”,在于前向的網(wǎng)絡(luò)進(jìn)行結(jié)合,就深入學(xué)習(xí)了領(lǐng)導(dǎo)的指導(dǎo)精神。

雙向RNN:bidirectional_dynamic_rnn()函數(shù)怎么用

上圖是一個(gè)雙向LSTM的結(jié)構(gòu)圖,對(duì)于最后輸出的每個(gè)隱藏狀態(tài)雙向RNN:bidirectional_dynamic_rnn()函數(shù)怎么用 都是前向網(wǎng)絡(luò)和后向網(wǎng)絡(luò)的元組,即雙向RNN:bidirectional_dynamic_rnn()函數(shù)怎么用 其中每一個(gè)雙向RNN:bidirectional_dynamic_rnn()函數(shù)怎么用 或者雙向RNN:bidirectional_dynamic_rnn()函數(shù)怎么用 又是一個(gè)由隱藏狀態(tài)和細(xì)胞狀態(tài)組成的元組(或者是concat)。同樣最終的output也是需要將前向和后向的輸出concat起來(lái)的,這樣就保證了在最終時(shí)刻,無(wú)論是輸出還是隱藏狀態(tài)都是有考慮了上文和下文信息的。

下面就來(lái)看下tensorflow中已經(jīng)集成的 tf.nn.bidirectional_dynamic_rnn() 函數(shù)。似乎雙向的暫時(shí)只有這一個(gè)動(dòng)態(tài)的RNN方法,不過(guò)想想也能理解,這種結(jié)構(gòu)暫時(shí)也只會(huì)在encoder端出現(xiàn),無(wú)論你的輸入是pad到了定長(zhǎng)或者是不定長(zhǎng)的,動(dòng)態(tài)RNN都是可以處理的。

具體的定義如下:

tf.nn.bidirectional_dynamic_rnn(
 cell_fw,
 cell_bw,
 inputs,
 sequence_length=None,
 initial_state_fw=None,
 initial_state_bw=None,
 dtype=None,
 parallel_iterations=None,
 swap_memory=False,
 time_major=False,
 scope=None
)

仔細(xì)看這個(gè)方法似乎和dynamic_rnn()沒(méi)有太大區(qū)別,無(wú)非是多加了一個(gè)bw的部分,事實(shí)上也的確如此。先看下前向傳播的部分:

with vs.variable_scope(scope or "bidirectional_rnn"):
 # Forward direction
 with vs.variable_scope("fw") as fw_scope:
  output_fw, output_state_fw = dynamic_rnn(
    cell=cell_fw, inputs=inputs, 
    sequence_length=sequence_length,
    initial_state=initial_state_fw, 
    dtype=dtype,
    parallel_iterations=parallel_iterations, 
    swap_memory=swap_memory,
    scope=fw_scope)

完全就是一個(gè)dynamic_rnn(),至于你選擇LSTM或者GRU,只是cell的定義不同罷了。而雙向RNN的核心就在于反向的bw部分。剛才說(shuō)過(guò),反向部分就是從后往前讀,而這個(gè)翻轉(zhuǎn)的部分,就要用到一個(gè)reverse_sequence()的方法,來(lái)看一下這一部分:

with vs.variable_scope("bw") as bw_scope:
 # ———————————— 此處是重點(diǎn) ———————————— 
 inputs_reverse = _reverse(
   inputs, seq_lengths=sequence_length,
   seq_dim=time_dim, batch_dim=batch_dim)
 # ————————————————————————————————————
 tmp, output_state_bw = dynamic_rnn(
   cell=cell_bw, 
   inputs=inputs_reverse, 
   sequence_length=sequence_length,
   initial_state=initial_state_bw, 
   dtype=dtype,
   parallel_iterations=parallel_iterations,
   swap_memory=swap_memory,
   time_major=time_major, 
   scope=bw_scope)

我們可以看到,這里的輸入不再是inputs,而是一個(gè)inputs_reverse,根據(jù)time_major的取值,time_dim和batch_dim組合的 {0,1} 取值正好相反,也就對(duì)應(yīng)了時(shí)間維和批量維的詞序關(guān)系。

而最終的輸出:

outputs = (output_fw, output_bw)
output_states = (output_state_fw, output_state_bw)

這里還有最后的一個(gè)小問(wèn)題,output_states是一個(gè)元組的元組,我個(gè)人的處理方法是用c_fw,h_fw = output_state_fw和c_bw,h_bw = output_state_bw,最后再分別將c和h狀態(tài)concat起來(lái),用tf.contrib.rnn.LSTMStateTuple()函數(shù)生成decoder端的初始狀態(tài)。

關(guān)于“雙向RNN:bidirectional_dynamic_rnn()函數(shù)怎么用”這篇文章就分享到這里了,希望以上內(nèi)容可以對(duì)大家有一定的幫助,使各位可以學(xué)到更多知識(shí),如果覺(jué)得文章不錯(cuò),請(qǐng)把它分享出去讓更多的人看到。

向AI問(wèn)一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

rnn
AI