溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶服務(wù)條款》

創(chuàng)意RNN和深度RNN怎么實(shí)現(xiàn)

發(fā)布時(shí)間:2022-05-07 15:31:37 來(lái)源:億速云 閱讀:145 作者:iii 欄目:大數(shù)據(jù)

這篇文章主要講解了“創(chuàng)意RNN和深度RNN怎么實(shí)現(xiàn)”,文中的講解內(nèi)容簡(jiǎn)單清晰,易于學(xué)習(xí)與理解,下面請(qǐng)大家跟著小編的思路慢慢深入,一起來(lái)研究和學(xué)習(xí)“創(chuàng)意RNN和深度RNN怎么實(shí)現(xiàn)”吧!

1. 創(chuàng)意RNN

經(jīng)過(guò)上期的學(xué)習(xí),我們有了一個(gè)可以預(yù)測(cè)未來(lái)時(shí)序信號(hào)的模型。那么我們也可以用它來(lái)產(chǎn)生一些有創(chuàng)意的句子。我們所需要做的就是提供一個(gè)包含n_steps個(gè)值的種子句子(比如全是0),用這個(gè)模型來(lái)預(yù)測(cè)下一個(gè)值。然后將這個(gè)預(yù)測(cè)值添加到句子中,依次產(chǎn)生一個(gè)新的句子。具體實(shí)現(xiàn)如下:

sequence = [0.] * n_steps
for iteration in range(300):
   X_batch = np.array(sequence[-n_steps:]).reshape(1, n_steps, 1)
   y_pred = sess.run(outputs, feed_dict={X: X_batch})
   sequence.append(y_pred[0, -1, 0])

創(chuàng)意RNN和深度RNN怎么實(shí)現(xiàn)

現(xiàn)在我們可以把周杰倫的專輯輸入到RNN網(wǎng)絡(luò)中,看看能產(chǎn)生什么樣子的歌曲出來(lái)。然而,有時(shí)候我們需要一個(gè)擁有更多神經(jīng)元的更深的更加強(qiáng)大的RNN,那接下來(lái),我們看下深度RNN。

2. 深度RNN

深度RNN其實(shí)跟深度CNN差不多,疊加更多層的神經(jīng)元而已,如下圖:
創(chuàng)意RNN和深度RNN怎么實(shí)現(xiàn)

那么在tensorflow中該如何實(shí)現(xiàn)呢?我們可以穿件幾個(gè)神經(jīng)元,并且把他們堆疊到MultiRNNCell中。下面的代碼中,我們堆疊了三個(gè)相同的神經(jīng)元(我們也可以堆疊多種不同類型不同個(gè)數(shù)的神經(jīng)元):

n_neurons = 100
n_layers = 3
basic_cell = tf.contrib.rnn.BasicRNNCell(num_units=n_neurons)
multi_layer_cell = tf.contrib.rnn.MultiRNNCell([basic_cell] * n_layers)
outputs, states = tf.nn.dynamic_rnn(multi_layer_cell, X, dtype=tf.float32)

感謝各位的閱讀,以上就是“創(chuàng)意RNN和深度RNN怎么實(shí)現(xiàn)”的內(nèi)容了,經(jīng)過(guò)本文的學(xué)習(xí)后,相信大家對(duì)創(chuàng)意RNN和深度RNN怎么實(shí)現(xiàn)這一問(wèn)題有了更深刻的體會(huì),具體使用情況還需要大家實(shí)踐驗(yàn)證。這里是億速云,小編將為大家推送更多相關(guān)知識(shí)點(diǎn)的文章,歡迎關(guān)注!

向AI問(wèn)一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

rnn
AI