recurrent-neural-network

    0熱度

    3回答

    我很困惑如何將數據序列編碼爲LSTM RNN的輸入。 在香草DNN中,每個標籤都有一個輸入。 RNN中的「輸入」是什麼?爲了訓練與標籤相關的連續事件,它是否必須是一組(或一系列)數據? 我很困惑如何編碼順序信息,因爲它似乎應該有多個與給定標籤相關聯的單個輸入。

    0熱度

    1回答

    問:是否實施了Tensorflow RNN來輸出Elman網絡的隱藏狀態? cells = tf.contrib.rnn.BasicRNNCell(4) outputs, state = tf.nn.dynamic_rnn(cell=cells, etc...) 我很安靜新TF的RNN和好奇的輸出含義,和狀態。 我遵循斯坦福的tensorflow教程,但似乎沒有詳細的解釋,所以我在這裏問。

    0熱度

    1回答

    我對Tensorflow PTB RNN教程代碼ptb_word_lm.py有兩個問題。下面的代碼塊來自代碼。 是否可以重置每批次的狀態? self._initial_state = cell.zero_state(batch_size, data_type()) with tf.device("/cpu:0"): embedding = tf.get_variable(

    1熱度

    1回答

    數據集描述 數據集包含了一組問題對,如果問題是相同告訴標籤訓練。例如 「我如何閱讀和查找我的YouTube評論?」 ,「我怎樣才能看到我所有的 Youtube評論?」 ,「1」 該模型的目標是確定給定的問題對是相同還是不同。 方法 我創建了一個Siamese network來識別,如果兩個問題都是一樣的。下面是該模型: with graph.as_default(): diff = tf

    1熱度

    2回答

    我在機器學習中沒有得到迭代的想法。由於編程是確定性(如每次運行時都做同樣的事情),通過反覆運行相同算法,準確度如何提高? 這是否迭代的概念有什麼關係RNN(遞歸神經網絡) - 在某種意義上,他們反饋給同中子多次 - 模型或SGD(隨機梯度下降) - 哪裏他們採取同樣的培訓數據樣本以提高效率 - ? 感謝 編輯:我的意思是迭代在這個玩具應用程序,我在此網站上發現: https://blog.kova

    0熱度

    1回答

    我有一個時間序列的數據集,我用它作爲LSTM-RNN的輸入,用於行動預測。時間序列包括30fps的時間(即150個數據點)的5秒,並且數據表示面部特徵的位置/移動。 我從我的數據集中採樣更小長度的附加子序列,以便在數據集中添加冗餘並減少過擬合。在這種情況下,我知道子序列的開始和結束幀。 爲了批量訓練模型,所有的時間序列需要具有相同的長度,並且根據文獻中的許多論文填充不應該影響網絡的性能。 例子:

    1熱度

    1回答

    我有一個像打擊一樣的時間序列數據框,其中的數字意義較小,我應用LSTM時有一些問題。 我已經看到了LSTM的一些演示,大多采用這種模式:[y_{t-2},y_{t-1},y_{t}] to predict [y_{t+1}],但正如數據幀的打擊,我也有featureA, featureB, featureC,所以我quesiton是:如何使用多輸入或多功能爲LSTM time featureA f

    2熱度

    1回答

    我正在使用dynamic_rnn和LSTMCell,後者放出一個包含內部狀態的LSTMStateTuple。調用這個對象的重塑(我的錯誤)會導致一個張量,而不會在創建圖表時造成任何錯誤。通過圖形輸入輸入時,我在運行時也沒有出現任何錯誤。 代碼: cell = tf.contrib.rnn.LSTMCell(size, state_is_tuple=True, ...) outputs, stat

    0熱度

    1回答

    我已經搜索在谷歌的架構,大多數博客是多到一個或許多第一一對多架構,有沒有最後的任何實例建築。 THX

    0熱度

    1回答

    我正在試圖用較小的數據集實現lstm模型。但是,當用戶將新數據添加到模型或Web服務器時,必須經常用用戶輸入更新。 是否有可能在用戶輸入的雲服務器上創建可更新的lstm模型?