我需要最小化KL loss,tensorflow。張力流中的Kullback-Leibler(KL)損失
我試試這個功能tf.contrib.distributions.kl(dist_a,dist_b,allow_nan = False,name = None)但沒有實現。
我嘗試手動implemets它:
def kl_divergence(p,q):
return p* tf.log(p/q)+(1-p)*tf.log((1-p)/(1-q))
是正確的?
我需要最小化KL loss,tensorflow。張力流中的Kullback-Leibler(KL)損失
我試試這個功能tf.contrib.distributions.kl(dist_a,dist_b,allow_nan = False,name = None)但沒有實現。
我嘗試手動implemets它:
def kl_divergence(p,q):
return p* tf.log(p/q)+(1-p)*tf.log((1-p)/(1-q))
是正確的?
[TensorFlow中的KL Divergence]的可能重複(http://stackoverflow.com/questions/41863814/kl-divergence-in-tensorflow) – Transcendental