0
我正在訓練11層完全卷積網絡。輸入是圖像480x640x1,輸出標籤也是圖像480x640x1。對於培訓,我正在使用sparse_softmax_cross_entropy_with_logits()。但我gettins的損失值是NaN。我附上我的代碼片段以供參考。Tensorflow損失值是nan with sparse_softmax_cross_entropy_with_logits()
x=tf.placeholder(tf.float32,(None,480,640,1))
y=tf.placeholder(tf.int32,(None,480,640,1))
logits=Model1(x)
loss=tf.reduce_mean(tf.nn.sparse_softmax_cross_entropy_with_logits(logits=logits,labels=tf.squeeze(y,squeeze_dims=[3])))
optimizer=tf.train.AdamOptimizer(learning_rate=lr)
Trainables=optimizer.minimize(loss)
所以型號1返回形狀(6,480,640,1)的張量(批次大小爲6)和y佔位符是(6,480,640,1)。如何解決損失張量得到的NaN值?