one-hot

    0熱度

    1回答

    我在使用keras處理NLP問題。根據之前的單詞,當我嘗試預測下一個單詞時,出現了一個關於單詞嵌入的問題。我已經通過keras嵌入層打開一個熱詞詞彙向量是這樣的: word_vector = Embedding(input_dim=2000,output_dim=100)(word_one_hot) ,並使用此word_vector做一些事情,模型給出了另一個word_vector最後。但我必

    0熱度

    1回答

    我一直在嘗試this tutorial on Youtube(在1m31s處擴展.cls和.labels),這只是一個簡單的MNIST分類器模型。但由於Tensorflow中顯然缺少的功能,我無法完成它。 >>>from tensorflow.examples.tutorials.mnist import input_data >>>data = input_data.read_data_set

    1熱度

    1回答

    我想用卷積神經網絡做多類多標籤圖像分類。 對於培訓過程,我打算使用單熱標籤來準備我的標籤。例如,有總共8個等級的是,和的樣本圖像可被分類爲類別2,4和6。因此,標籤將類似於 [0 1 0 1 0 1 0 0] 然而,該模型當前我的輸入管線捎帶上不會帶有多標籤的訓練數據。我的同事並沒有修改模型的輸入流水線,而是建議替代重複訓練數據。使用前面的示例,而不是使用3個標籤輸入一個訓練數據,而是輸入三個

    0熱度

    1回答

    我想了解tf.nn.sparse_softmax_cross_entropy_with_logits的工作原理。 描述說: A common use case is to have logits of shape [batch_size, num_classes] and labels of shape [batch_size]. But higher dimensions are suppor

    2熱度

    2回答

    我知道使用包熊貓可以很容易地實現它,但是因爲它太稀疏和很大(170,000 x 5000),最後我需要使用sklearn來處理數據,我想知道是否有是sklearn的一種方法。我嘗試了一種熱門編碼器,但卻被卡在「id」上。 df = pd.DataFrame({'id': [1, 1, 2, 2, 3, 3], 'item': ['a', 'a', 'c', 'b', 'a', 'b']})

    2熱度

    1回答

    我試圖訓練類別(one_hot)動作(call/fold/raise)和時間的時間序列的LSTM圖層數據模型。 舉例說明3輪的時間序列,其中玩家2X叫,然後摺疊。 #Call #0.5s # Call #0.3s #Fold, 1.5s [[[1,0,0], 0.5], [[1,0,0], 0.3], [[0,1,0], 1.5]] 呼叫的分類陣列/摺疊/加註不能由所述第一層(LSTM)被

    2熱度

    2回答

    我需要將單熱編碼轉換爲由唯一整數表示的類別。用下面的代碼創建的,因此一個熱編碼: from sklearn.preprocessing import OneHotEncoder enc = OneHotEncoder() labels = [[1],[2],[3]] enc.fit(labels) for x in [1,2,3]: print(enc.transform([[x

    2熱度

    1回答

    是什麼力量讓這方面的一個熱門編碼矩陣 array([[[1, 0, 0], [1, 0, 0], [0, 1, 0]], [[0, 0, 1], [0, 1, 0], [1, 0, 0]]]) 爲 array([[0, 0, 1], [2, 1, 0]]) 換句話說,最好的辦法,如何解碼一個熱點陣?

    0熱度

    1回答

    我有一個numpy數組(N,M),其中一些列應該是一個熱點編碼。請幫助使用numpy和/或tensorflow進行一次性編碼。 實施例: [ [ 0.993, 0, 0.88 ] [ 0.234, 1, 1.00 ] [ 0.235, 2, 1.01 ] ..... ] 該第二柱在這裏(具有值3和2)應該是一個熱編碼,我知道僅存在3個不同的值(0,1,2)。 結果數組應該是這樣的:

    2熱度

    1回答

    我有使用RNN多類分類和這裏是我的RNN主代碼: def RNN(x, weights, biases): x = tf.unstack(x, input_size, 1) lstm_cell = rnn.BasicLSTMCell(num_unit, forget_bias=1.0, state_is_tuple=True) stacked_lstm = rnn.M