tf.contrib.layers.xavier_initializer()如何知道激活函數?xavier_initializer()如何知道激活?
初始化良好的標準偏差取決於所用的非線性。對?那麼tf.contrib.layers.xavier_initializer()知道怎麼回事?
看看下面的情況:
W = tf.get_variable("W", shape=[784, 256],
initializer=tf.contrib.layers.xavier_initializer())
該W做一些事情,以X,然後將結果傳遞給正切或者RELU或有你。現在,初始化器在W中。tensorflow如何將激活狀態映射出來?或者我必須介入,知道我將要使用的激活?
看着tf.contrib.layers.xavier_initializer的參數,我可以選擇unifrom或正態分佈。但是這並不能解決問題,對吧?