rnn

    0熱度

    1回答

    我想實現一個簡單的RNN來預測整數序列中的下一個整數。所以,我有一個數據集是如下: Id Sequence 1 1,0,0,2,24,552,21280,103760,70299264,5792853248,587159944704 2 1,1,5,11,35,93,269,747,2115,5933,16717,47003,132291,372157,1047181,2946251,8289

    0熱度

    1回答

    我試圖建立一個RNN模型,將評論分爲正面或負面情緒。 有一個詞彙的詞彙,在預處理過程中,我對一些索引序列進行了回顧。 例如, "This movie was best" --> [2,5,10,3] 當我試圖讓頻繁vocabs並查看其內容,我得到這個錯誤: num of reviews 100 number of unique tokens : 4761 Traceback (most rec

    0熱度

    1回答

    訓練時我無法弄錯我做錯了RNN。我試圖訓練RNN對於和序列操作(瞭解它如何在簡單的任務上工作)。 但是我的網絡沒有學習,損失保持不變,並且它不能模擬事件。 你能幫我找到問題嗎? 數據我使用: data = [ [1, 1, 1, 1, 0, 0, 1, 1, 1], [1, 1, 1, 1], [0, 0, 1, 1], [0, 0, 0, 0, 0, 0,

    2熱度

    1回答

    我正面臨着一些懷疑,試圖在Tensorflow下使用多輸入序列(多變量)實現LSTM。 我以這種方式定義的LSTM: def LSTM(x): x = tf.reshape(x, [-1, input_length]) x = tf.split(x, input_length, 1) rnn_cell = rnn.MultiRNNCell([rnn.BasicLSTMCell(n_hidd

    -1熱度

    1回答

    我的應用場景類似於前一個Pattern recognition in time series 通過處理時間序列數據集,我想檢測類似於這樣的模式: 使用採樣的時間序列作爲一個例子,我想能夠檢測模式如下標註: 但我想Python和LSTM做到這一點。 我已閱讀了關於RNN時間序列和詞類分類的一些資料。我知道RNN如何預測時間序列的結果,但我很困惑如何在時間序列中找到模式。 我在網上搜索了很長時間。但沒

    0熱度

    1回答

    我是神經網絡和LSTM的新手,因此需要一些幫助。 我有100個不同時間長度的文件,每個文件都有13個特徵。每個文件都代表一個輸出類。 現在,我想有一個LSTM網絡,可以分類這些時間序列文件。 我該怎麼處理?我應該如何處理/準備我的數據?網絡的輸入應該是什麼樣的? 在此先感謝。

    1熱度

    1回答

    我對於深度學習及其對時間序列預測的方法頗爲陌生。最近我發現了一篇關於time series predicting using Recurrent Neural Networks (RNN) in Tensorflow的文章。 在這篇文章中,測試儀在過去的20個值和模型預測y_pred也爲數據集的最後20個值,然後計算y_test和y_pred MSE。我的問題是:如何擴展模型以接收未來下一階段的預

    0熱度

    1回答

    我正在嘗試使用torch/rnn工具包在我的nVidia圖形卡上運行RNN。我有一個帶有nVidia驅動程序,CUDA工具包,Torch和cuDNN的Ubuntu 16.04虛擬機。我可以運行mnistCUDNN示例,nvidia-smi使用圖形卡顯示它。在火炬中,我可以要求('cunn');並且它快樂地加載。 但是當我dofile('./ rnn/examples/recurrent-visua

    2熱度

    1回答

    在CPU上,文本編碼(https://github.com/tensorflow/models/tree/master/research/textsum)運行完美。 https://github.com/tensorflow/models/blob/master/research/textsum/seq2seq_attention.py#L84 https://github.com/tensorf

    1熱度

    1回答

    剛開始研究RNN和LSTM ...有一個問題沒有回答我看過的任何資源: 以下是我如何理解RNN中參數共享的要點。我的問題是: 我對RNN的理解,總結如下,是否正確? 在Keras的實際代碼示例中,我研究了LSTM,它們將句子填充到相同的長度。通過這樣做,這不會沖走RNN中參數共享的全部目的嗎? 在常規的前饋神經網絡中,每個輸入單元都被分配一個單獨的參數,這意味着輸入單元(特徵)的數量對應於要學習的