softmax

    0熱度

    1回答

    TensorFlow非常棒,我們已經將它用於圖像分類或推薦系統。我們使用softmax和cross entropy作爲損失函數。它適用於只有一種標籤的情況。例如,我們只在MNIST數據集中選擇0到9之間的一個數字。 現在我們有了性別和年齡的特徵。我們對每個示例都有一個熱門編碼,例如[1,0,1,0,0,0,0]。前兩個標籤代表性別,最後五個標籤代表年齡。每個示例有兩個1,其他的應該是0。 現在我們

    0熱度

    1回答

    我試圖在tensorflow中實現softmax迴歸模型,以便與其他主流深度學習框架進行基準比較。由於tensorflow中的feed_dict issue,官方文檔代碼很慢。我試圖以tensorflow的形式服務數據,但我不知道最有效的方法。現在我只使用單個批次作爲常量並通過該批次進行培訓。對代碼進行minibatched解決方案的有效解決方案是什麼?這裏是我的代碼: from tensorfl

    1熱度

    1回答

    完全卷積網絡使用softmaxloss作爲其損失層,但分割是一個多標籤任務,它不能被視爲概率問題。我瞭解錯誤嗎?

    0熱度

    1回答

    我試圖建立一個帶有2個隱藏層和3個輸出類的簡單MLP。 我在模型中所做的是: 輸入圖像爲120×120的RGB圖像。扁平尺寸大小的(3 * 120 * 120) 2隱藏層100 RELU激活用於 輸出層具有3個神經元 代碼 def model(input, weights, biases): l_1 = tf.add(tf.matmul(x, weights['h1']), biase

    2熱度

    1回答

    我是TensorFlow的新用戶,需要培訓語言模型,但在閱讀document時碰到一些困難,如下圖所示。 lstm = rnn_cell.BasicLSTMCell(lstm_size) # Initial state of the LSTM memory. state = tf.zeros([batch_size, lstm.state_size]) loss = 0.0 for cu

    2熱度

    2回答

    在Caffe中,有一個SoftmaxWithLoss函數的選項可以忽略計算概率中的所有負面標籤(-1),因此只有0或正面標籤概率合計爲1 Tensorflow softmax損失是否有類似的功能?

    2熱度

    1回答

    我正在張量張網中工作,產生一個向量,然後通過softmax這是我的輸出。 現在我一直在測試這個,並且奇怪的是,矢量(通過softmax的那個矢量)在所有座標上都有零,但是隻有一個。 基於softmax的定義與指數,我認爲這不應該發生。這是一個錯誤嗎? 編輯:我的矢量是120x160 = 192000。所有值均爲float32

    2熱度

    1回答

    我嘗試使用pretrained模型(VGG 19)來DIGITS,但我得到了這個錯誤。 ERROR: Your deploy network is missing a Softmax layer! Read the documentation for custom networks and/or look at the standard networks for examples 我嘗試使用只有兩

    0熱度

    1回答

    我使用下面的代碼來計算預測標籤和實際標籤的熵。數據來自CIFAR-10數據集。 我用astype(np.float32)將源數據轉換爲ndarray,之後在tf.constant()中使用dtype作爲float32。錯誤消息 TypeError: DataType float32 for attr 'Tlabels' not in list of allowed values: int32, i

    4熱度

    1回答

    先啓V3模型顯示此圖像中: 的圖像是從這個博客,帖子: https://research.googleblog.com/2016/03/train-your-own-image-classifier-with.html 看來,有兩種分類添加Softmax輸出。這是爲什麼? TensorFlow示例中使用哪一個作爲該文件中名稱爲'softmax:0'的輸出張量? https://github.com