爲了降低張量,我定義的所有dytpe=tf.float16
變量在我的模型,然後定義優化:does tensorflow 0.10.0rc版本支持float16嗎?
optimizer = tf.train.AdamOptimizer(self.learning_rate)
self.compute_gradients = optimizer.compute_gradients(self.mean_loss_reg)
train_adam_op = optimizer.apply_gradients(self.compute_gradients, global_step=self.global_step)
一切正常,OK!但是在我運行train_adam_op之後,漸變和變量在python中是nan。我漫步如果apply_gradients()
API支持tf.float16
類型?爲什麼我得到nan後apply_gradients()
被session.run()
調用....
執行'apply_gradients'操作後,'loss'變成了''nan'在Python中。所以我懷疑tensorflow的'apply_gradients' API是否支持tf.float16? –