lstm

    1熱度

    1回答

    這可能是太傻問...但是... 當使用LSTM初始Embedding層Keras(例如Keras LSTM-IMDB tutorial code)後,請問該怎麼Embedding層知道有一個時間維度?換句話說,訓練數據集中每個序列的長度是怎樣的?嵌入層如何知道我正在訓練的是句子,而不是單個單詞?它只是在訓練過程中推斷出來的嗎?

    0熱度

    1回答

    說,這是訓練和測試數據: X_matrix.shape = (5, 115318, 4) ; Y_matrix.shape = (5, 115318, 51) ,我用的LSTM模式是: model = Sequential() model.add(LSTM(128, dropout=0.2, recurrent_dropout=0.2)) model.add(Dense(51, activ

    0熱度

    1回答

    我正在使用this link來構建語音識別器。運行後,我可以看到,在200個曆元後,訓練標籤錯誤率從1.023下降到0.085,但驗證標籤錯誤率僅從1.347下降到0.843。稍後,驗證標籤錯誤率不會再降低。 任何人都可以建議網絡結構的任何變化或超參數的變化,以提高驗證標籤錯誤率嗎?

    1熱度

    1回答

    wordsList = np.load('training_data/wordsList.npy') wordsList = wordsList.tolist() #Originally loaded as numpy array wordsList = [word.decode('UTF-8') for word in wordsList] #Encode words as UTF-8 w

    1熱度

    1回答

    LSTM的主要目的是利用其記憶屬性。基於此,無狀態LSTM的存在意義何在?我們不要通過這樣做將它「轉換」爲簡單的NN嗎? 換句話說..是否無國籍使用LSTM的目的是在輸入數據中的序列(窗口)進行建模 - 如果我們應用洗牌=假在配合層中keras - (例如,用於一個窗口10個時間步驟捕獲10個字符的單詞之間的任何模式)?如果是的話,我們爲什麼不將初始輸入數據轉換爲匹配被檢查序列的形式,然後使用一個

    0熱度

    2回答

    我正在從網站的例子包含類型「_Message」,而不是...的張量清單:http://machinelearningmastery.com/time-series-forecasting-long-short-term-memory-network-python/ from pandas import DataFrame from pandas import Series from panda

    0熱度

    1回答

    我真的不明白如何結合sklearn_crfsuite和凱拉斯。 我必須做一個經典的LSTM,並保證最後一次激活,我使用sklearn_crfsuite? 有人有一個例子嗎? THX,

    3熱度

    1回答

    當我使用.fit()圖層訓練模型時,參數shuffle預設爲True。 假設我的數據集有100個樣本,並且批量大小爲10.當我設置shuffle = True時,keras首先隨機地隨機選擇樣本(現在100個樣本的順序不同),然後按照新的順序開始創建批次:批次1:1-10,批次2:11-20等 如果我設置shuffle = 'batch'它應該如何在後臺工作?直觀地使用批量大小爲10的100個樣本

    1熱度

    2回答

    有人能幫助我理解這個錯誤是什麼嗎? model = Sequential() model.add(Embedding(82, 100, weights=[embedding_matrix], input_length=1000)) model.add(LSTM(100)) model.add(Dense(100, activation = 'sigmoid')) model.compile

    0熱度

    1回答

    我有股票價格序列的每個時間步長20名單。這是一個二維數組(total_seq,20)。我可以將它重新整理成(total_seq,20,1)以連接到其他功能。 我也有10個字每個時間步長的新聞標題。所以,我有從Tokenizer.texts_to_sequences()和sequence.pad_sequences()新聞的令牌的形狀(total_seq,20,10)的3D陣列。 我想連接的消息嵌入