rnn

    1熱度

    1回答

    我對神經網絡相當陌生,並沒有太多的經驗。我的問題如下: 我有一個數組,每個數據點有877個不同的數據點,200個特徵。它是一個PCA簡化的TfIdf矩陣,其中每行對應於我的數據集中的一段文本(如段落本身)。我正在嘗試爲此數據(類1或0)創建二進制分類器。我已經成功地得到了從低到80%的準確率中旬線性SVM,並且約80%的準確度有一個簡單的密集NN如下: model = Sequential()

    0熱度

    1回答

    我正在嘗試在DeepLearning4J中找到GRU實現,但似乎無法找到它。有誰知道GRU是否在DL4J內實現?如果是的話,請你直接給我一個例子。如果沒有,這是否在他們的路線圖上? 謝謝

    1熱度

    1回答

    我想在不使用MultiRNNCell的情況下製作多層RNN,因爲我想獨立更新每個圖層。所以我沒有使用tf.dynamic_rnn。 with tf.variable_scope("cell"): with tf.variable_scope("cell_1", reuse=True): cell_1 = tf.contrib.rnn.BasicLSTMCell(n_hidden

    2熱度

    1回答

    據我所知,DropoutWrapper使用如下 __init__( cell, input_keep_prob=1.0, output_keep_prob=1.0, state_keep_prob=1.0, variational_recurrent=False, input_size=None, dtype=None, seed=None ) 。 cell = tf.nn.r

    1熱度

    1回答

    wordsList = np.load('training_data/wordsList.npy') wordsList = wordsList.tolist() #Originally loaded as numpy array wordsList = [word.decode('UTF-8') for word in wordsList] #Encode words as UTF-8 w

    1熱度

    1回答

    LSTM的主要目的是利用其記憶屬性。基於此,無狀態LSTM的存在意義何在?我們不要通過這樣做將它「轉換」爲簡單的NN嗎? 換句話說..是否無國籍使用LSTM的目的是在輸入數據中的序列(窗口)進行建模 - 如果我們應用洗牌=假在配合層中keras - (例如,用於一個窗口10個時間步驟捕獲10個字符的單詞之間的任何模式)?如果是的話,我們爲什麼不將初始輸入數據轉換爲匹配被檢查序列的形式,然後使用一個

    3熱度

    1回答

    當我使用.fit()圖層訓練模型時,參數shuffle預設爲True。 假設我的數據集有100個樣本,並且批量大小爲10.當我設置shuffle = True時,keras首先隨機地隨機選擇樣本(現在100個樣本的順序不同),然後按照新的順序開始創建批次:批次1:1-10,批次2:11-20等 如果我設置shuffle = 'batch'它應該如何在後臺工作?直觀地使用批量大小爲10的100個樣本

    -1熱度

    1回答

    我想預測股票價格。 通常情況下,人們會以股票價格序列的形式輸入投入。然後他們會以相同的順序饋送輸出,但向左移動。 測試時,它們將所述預測的輸出饋送到這樣的下一個輸入的時間步長: 我有另一個想法,這是修復序列的長度,例如50個時間步。 輸入和輸出的順序完全相同。 當訓練時,我將輸入的最後3個元素替換爲零,讓模型知道我沒有輸入這些時間步長。 當測試時,我會爲模型提供一個由50個元素組成的序列。最後3個

    0熱度

    1回答

    我想要構建40級LSTM分類器來分析時間序列數據。我有從13個傳感器收集的13維實時數據。當我運行下面的代碼時,我不斷收到此錯誤消息。 ValueError: Error when checking model input: the list of Numpy arrays that you are passing to your model is not the size the model e

    0熱度

    1回答

    我一直在600k條+摘要訓練語料庫上訓練文本seq2seq w /注意模型,用於抽象概括。這可以視爲收斂嗎?如果是這樣,在不到5K步驟後會聚合嗎?注意事項: 我已經對20萬個 5K步驟的詞彙尺寸爲4的批量式訓練(直到大約收斂),意味着在大多數20K不同的樣品進行觀察。這只是整個訓練語料庫的一小部分。 或者我實際上沒有在茶葉裏看到我的狗的臉,是預期的邊際負坡?