softmax

    8熱度

    2回答

    我目前正試圖重現以下文章的結果。 http://karpathy.github.io/2015/05/21/rnn-effectiveness/ 我使用keano和theano後端。在文章中他談到了控制最終softmax層的溫度以提供不同的輸出。 溫度。我們也可以在採樣過程中使用Softmax 的溫度。將溫度從1降低到某些較低的數字(例如0.5)使得RNN更有信心,但其樣本中也更保守。相反,較高的

    5熱度

    1回答

    所以,我工作的大樓基於一個完全卷積網絡(FCN),關Marvin Teichmann's tensorflow-fcn 我輸入的圖像數據,對於時間是750x750x3 RGB圖像。 通過網絡運行後,我使用shape [batch_size,750,750,2]的logits來計算我的損失。 這是一個二元分類 - 我這裏有2班,[0,1]在我的標籤(形狀[batch_sizex750x750]而這些

    1熱度

    2回答

    對於在python中使用tensorflow的softmax迴歸程序,我想將我的1000個jpeg圖像文件作爲2D張量x:[image index,pixel index]。 「圖像索引」是圖像,像素索引是該圖像的特定圖像像素。 模型等式是: y = tf.nn.softmax(tf.matmul(x, W) + b) where: x = tf.placeholder(tf.float32,

    1熱度

    1回答

    我正在嘗試爲CIFAR分類構建softmax迴歸模型。起初,當我試圖將我的圖像和標籤傳入Feed詞典時,出現錯誤,表示Feed詞典不接受張量。然後,我使用.eval()將它們轉換爲numpy數組,但程序掛在.eval()行,並且不再繼續。我如何將這些數據傳遞給feed_dict? CIFARIMAGELOADING.PY import tensorflow as tf import os im

    3熱度

    1回答

    假設我有以下的張量t爲SOFTMAX函數的輸出: t = tf.constant(value=[[0.2,0.8], [0.6, 0.4]]) >> [ 0.2, 0.8] [ 0.6, 0.4] 現在,我想這個矩陣t轉換成類似於OneHot編碼矩陣的矩陣: Y.eval() >> [ 0, 1] [ 1, 0] 我熟悉c = tf.argmax(t)這會給我指數t

    1熱度

    1回答

    我訓練了一個簡單的可恢復網絡(62個輸入單元,124個隱藏/上下文單元,62個輸出單元)以預測句子中的後續單詞。我使用了sigmoid激活功能。 由於一些各種奇怪的原因,在訓練過程中不可能應用softmax。我的教授建議,我可以在之後將softmax應用於網絡輸出。矩陣有576行和62色。 所以我以下列方式實現中的R SOFTMAX: softmax <- function(outVec = NU

    1熱度

    1回答

    我正在學習seq2seq神經模型,我對常規softmax和採樣softmax感到困惑。我被告知,採樣的softmax主要用於大詞彙量。那麼誰能直觀地解釋兩者之間的區別?

    7熱度

    2回答

    我試圖實現類似完全卷積網絡的東西,其中最後的卷積層使用過濾器大小1x1並輸出'分數'張量。得分張量具有形狀[批次,高度,寬度,num_classes]。 我的問題是,tensorflow中的什麼函數可以爲每個像素應用softmax操作,而與其他像素無關。 tf.nn.softmax操作似乎不是爲了這樣的目的。 如果沒有這樣的操作可用,我想我必須自己寫一個。 謝謝! 更新:如果我確實需要實現自己,我

    0熱度

    1回答

    我的任務是按像素對圖像進行分類...因此圖像的每個像素都有一個類,並且CNN應該能夠讀出標籤圖像,使得每個像素都具有該類的離散值(0-19 )。 我有一個美國有線電視新聞網,似乎做得很好,再現相對價值,所以它近似的標籤圖像的範圍爲0.00001和0.00002 ...但是,我很難得到交叉熵工作不僅僅是「好樣的」,因爲它是依靠圖像標籤矩陣與離散值: [[0, 1, 1, 1],[1,1,3,3],.

    0熱度

    2回答

    我有這段代碼,它可以計算我的convnet輸出預測的softmax函數。 pred = conv_net(x, weights, biases, keep_prob, batchSize) softmax = tf.nn.softmax(pred) 我的預測陣列是形狀[batch_size時,number_of_classes] = [128,6] 從該陣列的例子是行... [-2.695