recurrent-neural-network

    3熱度

    1回答

    儘管經歷了multipleexamples,我仍然不明白如何使用Keras,similar to this question來分類不同長度的序列。我可以訓練檢測具有不同長度,使用屏蔽正弦頻率網絡: from keras import models from keras.layers.recurrent import LSTM from keras.layers import Dense, Ma

    0熱度

    1回答

    我Tensorflow 1.1.0 和我下面從https://github.com/ageron/handson-ml/blob/master/14_recurrent_neural_networks.ipynb在多小區基本教程(堆放)RNNs 下面的代碼生成一個奇怪的錯誤,我想不通爲什麼從搜索。 import tensorflow as tf n_inputs = 2 n_neurons =

    0熱度

    1回答

    我使用Keras和TensorFlow後端。我剛剛想出瞭如何在不屏蔽的情況下訓練和分類不同長度的序列,因爲我無法掩蓋工作。在我正在使用的玩具示例中,我試圖訓練LSTM以檢測任意長度的序列是否以1開頭。 from keras.models import Sequential from keras.layers import LSTM, Dense import numpy as np de

    3熱度

    1回答

    我試圖在人類行爲分類(RNN的一個軸上的關節和另一個時間上的關節)中實現二維RNN,並且一直在Tensorflow中尋找高低的東西做這項工作。 我聽到GridLSTMCell(internally和externally貢獻),但無法得到它與dynamic_rnn工作(接受3 d張,但我不得不提供4-d張量[BATCHSIZE,MAX_TIME,num_joints, n_features])。 此

    1熱度

    1回答

    我在Keras中實現了我自己的復發層,並且在step函數內部我希望能夠訪問所有時間步驟中的隱藏狀態,而不僅僅是最後一個狀態如默認,以便我可以做一些事情,比如及時向後添加跳過連接。 我試圖修改tensorflow後端K.rnn內的_step以返回到目前爲止所有隱藏狀態。我最初的想法是簡單地將每個隱藏狀態存儲到TensorArray中,然後將所有這些狀態都傳遞給step_function(即我的層中的

    1熱度

    1回答

    我在Keras中有以下模型,TimeDistributed(Flatten())(x)不起作用,它給出與輸出相同的形狀。我在Windows 10上使用帶有Tensorflow後端和Python 3.5.3的Keras的最新版本。我做錯了什麼?有其他解決方案嗎? rnn_size = 128 input_tensor = Input((width, height, 3)) x = input

    0熱度

    1回答

    目前,我有以下代碼: init_state = tf.Variable(tf.zeros([batch_partition_length, state_size])) # -> [16, 1024]. final_state = tf.Variable(tf.zeros([batch_partition_length, state_size])) And inside my inferenc

    2熱度

    1回答

    目標從2開始。從給定的數組我們接受輸入,目標是它的下一個元素。由於形狀只有到12輸入即將到來。我需要重塑形狀數組的輸入(批次數,2,2,3),其中批次數是len (文本)//(2 * 2 * 3),所以輸入的數量將被輸入[:批次數* 2 * 2 * 3] 將[ 8,9,10,11,12,13,14,15]轉換成 [ # First Batch [ # Batch

    0熱度

    1回答

    我正在使用https://google.github.io/seq2seq/的代碼訓練seq2seq NMT(神經機器翻譯)。在我中斷訓練過程之後,重新啓動的過程變得非常慢(從1.2步/秒到0.07步/秒)。有其他人有這種經歷嗎?我該如何調試?我已經運行此數週,真的不想放棄...謝謝!〜 正常訓練的最後一行, INFO:tensorflow:loss = 0.585205, step = 8308

    1熱度

    1回答

    我最近遵循tutorial來製作RNN來生成文本: 我完全複製了python代碼並理解它。 我的模型已經訓練了20個時代和它產生的3個字很長的重複循環: "and the wour and the wour and the wour..." 我在安德烈Kaparthy的blog閱讀,改變RNN的溫度改變其信心: 將溫度從1降低到某個更低的數值(例如0.5)會使RNN更有信心,但其樣本也更保守。