recurrent-neural-network

    0熱度

    1回答

    我想用數千次的時間步長構建一個RNN,所以正確的方法是使用while_loop函數,因爲GPU在for循環中將會出現內存不足。 但我找不到在每一步都保存rnn輸出的方法。我嘗試使用全局列表或使用tf.concat()來累積輸出。都沒有工作。看起來像while_loop()只能用於獲取最終輸出。 是否有解決方案來獲得所有的輸出?

    2熱度

    1回答

    我想用R遞歸神經網絡包rnn來分類aspect和情感對的極性。例如,輸入是預先訓練的詞語「速度」和「快速」嵌入,我期望通過RNN分類獲得這一對的類別標籤。 你能給我一些關於使用rnn包進行這項工作的指導嗎? 輸入X和輸出Y的trainr()方法應該是什麼?

    5熱度

    1回答

    下面我有一個Tensorflow RNN單元的實現,該單元用於模擬本文中的Alex Graves算法ACT:http://arxiv.org/abs/1603.08983。 在通過rnn.rnn調用的序列中的單個時間步驟(帶有靜態sequence_length參數,因此rnn動態展開 - 我使用的是固定批量大小爲20),我們遞歸調用ACTStep,生成大小輸出(1,200)其中RNN單元格的隱藏維

    2熱度

    1回答

    我是deeplearning4j圖書館的新手,但我對神經網絡有一定的瞭解。 我想訓練一個經常性的神經網絡(特別是LSTM),它應該可以實時檢測音樂中的節拍。所有使用replearning4j的循環神經網絡的例子,我迄今發現使用讀取器從文件中讀取訓練數據。由於我想通過麥克風實時錄製音樂,因此我無法讀取一些預生成文件,因此饋入神經網絡的數據由我的應用程序實時生成。 這是我使用生成我的網絡的代碼: Ne

    0熱度

    1回答

    是否有一種將r數據框中的行解包爲列的有效方法?這是我遇到的一個重新發生的問題,當我從一個SQL腳本獲得的數據應該解開成幾列。例如,對於時間序列預測,我沒有使用rnn,而是使用標準神經網絡。代替具有重複網我打算弄平數據預先使得淨接收行對於t-1,T-2,T-3等。參見下面 基本上我的花式油漆作業對於每一行,我想連接右邊的前n行,其中n取決於我們想要用來預測當前行中的值的先前時間步數。 大多數情況下,

    1熱度

    1回答

    我正在訓練張量流中的RNN。使用的功能是從https://github.com/tensorflow/tensorflow/blob/master/tensorflow/python/ops/rnn.py「rnn」。 outputs, states = rnn.rnn(cell, inputs, initial_state=initial_state, sequence_length=seq_le

    0熱度

    1回答

    在袋裝詞模型中,我知道我們應該在培訓之前刪除停用詞和標點符號。但是在RNN模型中,如果我想進行文本分類,我是否也應該刪除停用詞?

    0熱度

    1回答

    我的目標是預測客戶流失。我想使用強化學習來訓練一個預測目標響應輸入的循環神經網絡。 我知道每次都是通過網絡輸入來表示狀態,但我不明白這個動作是如何表示的。神經網絡應該通過一些公式選擇權重值嗎? 另外,我們應該如何創建獎勵或懲罰來教授神經網絡的權重,因爲我們不知道每個輸入神經元的目標響應?

    1熱度

    1回答

    我已經通過神經網絡,並已經理解了反向傳播的派生幾乎完美(最後!)。但是,我有一個小小的懷疑。 我們正在同時更新所有重量,所以它們保證了它們的成本更低。如果權重逐個更新,肯定會導致較低的成本,並且與線性迴歸相似。但是如果你同時更新所有的權重,我們可能不穿過最小值? 此外,我們是否更新偏差,就像我們更新每個測試用例的每次正向傳播和反向傳播之後的權重? 最後,我已經開始閱讀RNN的。瞭解RNN中的BPT

    0熱度

    1回答

    TensorFlow和Theano似乎都不支持循環計算圖,循環元素被實現爲具有緩衝和展開的循環單元(RNN/LSTM單元),但是這種限制主要與計算有關反向傳播。我沒有特別需要計算反向傳播,而只是向前傳播。 有沒有辦法忽略這個限制,或者僅僅是打亂非循環組件中的任意計算圖?