recurrent-neural-network

    2熱度

    1回答

    該問題有2個部分。假設我們正在查看銷售額超過1000美元以上的商品的銷售額。對於這1000家商店中的每一家,我們都有24個月的記錄數據。 我們希望能夠預測S_t < -f(S_ {t-1})。我們可以爲每個存儲時間序列建立一個RNN,計算測試RMSE,然後在考慮標準化值之後取平均值等。但問題是每個時間序列的樣本數很少。如果我們要將商店分成組(比如說動態時間翹曲),那麼我們可以創建一個文本情感挖掘的

    2熱度

    1回答

    我有一段代碼應該建立一個有5個滯後變量的RNN模型用於觀察時間序列數據。下面是代碼: library(Quandl) key<-"*******************" Quandl.api_key(key) sh_stock_ex <- Quandl("YAHOO/SS_600292", type="xts") library(xts) data <- scale(sh_stock

    0熱度

    1回答

    我正在使用內置的tf.nn.seq2seq.embedding_attention_seq2seq()函數,並且在訓練期間我有一些feed_previous參數的問題,在測試期間將groundtruth饋送到解碼器,而在測試期間我們饋送最後的輸出時間步到解碼器。問題是,一旦我設置了feed_previous參數,我無法更改該參數。我想在每個時代測試我的模型,我該怎麼做?

    0熱度

    1回答

    我試圖通過Google DeepMind運行關注機制的實現。但是它是基於舊版本TensorFlow和我收到此錯誤 from tensorflow.models.rnn.rnn_cell import RNNCell, linear concat = linear([inputs, h, self.c], 4 * self._num_units, True) NameError: global na

    3熱度

    1回答

    所以我正在學習機器學習,並想知道mfcc特徵大小如何影響RNN(Recurent神經網絡)? 隨着librosa我提取MFCC然後增量係數和後,我得到尺寸的陣列[13,sound_length] 用蟒提取MFCC和增量係數的代碼:(Y - 聲音文件數據,SR - y的長度) mfcc = librosa.feature.mfcc(y=y, sr=sr, n_mfcc=13) mfcc_delta

    0熱度

    1回答

    多個漏失層我想再現,其中每個時間層之後是漏失層迴歸神經網絡,並且這些漏失層共享他們的面具。除其他外,該結構在A Theoretically Grounded Application of Dropout in Recurrent Neural Networks中有描述。 據我理解代碼,在MXNet實施了經常性的網絡模型沒有時間層之間施加任何輟學層;的功能,例如lstm(R API,Python A

    0熱度

    1回答

    我正在嘗試理解和實施LSTM。我明白他們需要定義一個序列長度T,並且批量執行訓練。所以我們給網絡提供了幾個長度爲T的序列。現在LSTM需要一個先前的狀態作爲輸入,據我所知,它被初始化爲零。我的問題是,每個序列後狀態都重置爲零?例如我有一個序列1,狀態向量在這個序列中繼續前進,然後我將它置於下一個序列的零處?還是將它帶到下一個序列2?如果是這樣,那麼對於不相關的序列如何處理呢?例如我有來自2個不同文

    0熱度

    1回答

    我有大小爲100000 * 5的時間序列數據。 100000個樣本和5個變量。我已經將每個100000個樣本標記爲0或1,即二進制分類。 我想用LSTM來訓練它,因爲數據的時間序列性質。我已經看到了LSTM用於時間序列預測的例子,它適用於我的情況。

    4熱度

    2回答

    我使用迴歸神經網絡(RNN)進行預測,但是對於一些奇怪的原因,它總是輸出1。這裏我用玩具例如作爲解釋這一點: 例 考慮尺寸爲(360,5)的矩陣M,以及包含的rowum的矢量Y。現在,使用RNN,我想從M預測Y。使用rnnR包,我訓練模型我觀察,而培訓是那個時代的錯誤總是4501理想的情況下,具有劃時代的錯誤應該與時代增加而減小 library(rnn) M <- matrix(c(1:

    6熱度

    1回答

    我正在嘗試編寫一個序列來在keras中對RNN進行排序。我使用我從網上理解的內容編寫了這個程序。我首先將文本標記爲文本,然後將文本轉換爲序列並填充以形成特徵變量X。目標變量Y首先將x移動到左邊然後填充它。最後,我將我的特徵和目標變量提供給我的LSTM模型。 這是我寫在keras爲此目的的代碼。 from keras.preprocessing.text import Tokenizer,base_