rnn

    1熱度

    1回答

    我已經用a,b,c標記標記了數據集,並且必須用a,b,c等標記標記傳入序列。它應該對已知序列進行分類和標記,或者說我以前沒有見過。 我想我應該定製我的網絡,使標籤獨立。所以標籤分數的總和不應該是1,並且每個標籤分數是獨立於其他的。 例如 sequence a : .95, 0.1, 0,01 sequence b : .02, 0.87, 0.9 unknown : .2, .15, .12

    0熱度

    1回答

    我正在使用tf.nn.dynamic_rnn以tensorflow運行LSTM。我有一個張量N初始狀態矢量和一個張量M = N * n輸入。每個系列包括n輸入項目,我想評價第i組與第i個初始狀態向量輸入向量,如下圖所示: inputs[0:n], initial_states[0] inputs[n:2*n], initial_states[1] ... 有沒有辦法用做單獨呼叫tf.nn.

    0熱度

    2回答

    我一直在研究一個我一直在嘗試不同機器學習算法的大數據集。我用XGBoost得到了非常好的結果,但是我得到的最好結果來自SVM。但是因爲我有8年的數據傳播時間,所以我想到了使用RNN的時間序列模型。我一直在試驗RNN-LSTM的超參數,通過增加層數或每層節點的數量,因爲沒有經驗法則。但是,我還沒有接近我的XGBoost結果。我注意到的奇怪之處在於,即使將時期數從100增加到1000,或者我將隱藏層的

    1熱度

    1回答

    我有csv中的原始數據,與具有公司名稱的列名稱w1相同。 w1 abcd reit pvt ltd abcd reit private ltd ac abcd pte limited abcd reit pvt ltd abcd singapore private limited company abcd reit pvt ltd company abcd reit private

    4熱度

    1回答

    我想知道如何在Tensorflow中使用多層雙向LSTM。 我已經實現了雙向LSTM的內容,但是我想將這個模型與添加了多層的模型進行比較。 我該如何在這部分添加一些代碼? x = tf.unstack(tf.transpose(x, perm=[1, 0, 2])) #print(x[0].get_shape()) # Define lstm cells with tensorflow #

    0熱度

    1回答

    我是遞歸神經網絡和LSTM的新手。我對他們的工作和訓練程序有一個很好的想法。但是我很難想象它們,特別是在閱讀Tensorflow文檔並理解相關術語之後。在構建LSTM時,所有隱藏層單元都是LSTM單元?我的意思是如果我在隱藏層中有100個單元,是否意味着有100個LSTM單元?

    2熱度

    1回答

    當試圖編譯一個具有一個經常性圖層的網絡時,我發現問題。似乎第一層的維度存在一些問題,因此我對Keras中RNN層的工作原理有所瞭解。 我的代碼示例是: model.add(Dense(8, input_dim = 2, activation = "tanh", use_bias = False)) model.add(SimpleRNN(2,

    0熱度

    1回答

    我想在張量流中寫一個簡單的RNN,基於這裏的教程:https://danijar.com/introduction-to-recurrent-networks-in-tensorflow/ (我使用簡單的RNN細胞而不是GRU,而不是使用丟失)。 我很困惑,因爲我序列中的不同RNN細胞似乎被分配了不同的權重。如果我運行下面的代碼 import tensorflow as tf seq_leng

    1熱度

    1回答

    Tensorflow新手在這裏!我知道Variables會隨着時間的推移而被訓練,佔位符會使用輸入數據,這些輸入數據在模型訓練時不會改變(如輸入圖像和這些圖像的類標籤)。 我正在嘗試使用Tensorflow實現RNN的正向傳播,並且想知道我應該保存哪種類型的RNN單元的輸出。在numpy的RNN實現,它使用 hiddenStates = np.zeros((T, self.hidden_dim))

    1熱度

    1回答

    爲tf.contrib.legacy_seq2seq.embedding_rnn_seq2seq的正式文檔具有用於output_projection參數如下解釋: output_projection:無或一對(W,B)輸出投影重量和偏見; W的形狀爲[output_size x num_decoder_symbols],B的形狀爲[num_decoder_symbols];如果提供並且feed_p