1
我正在使用tensorflow relu函數用於激活隱藏層的模型。所以基本上這個模型是這樣的在張量流中應用自己的激活函數
h = tf.nn.relu(zw)
其中zw是來自上一層次權重輸出的所有元素。根據tensorflow的RELU的定義它會返回
max(zw,0)
所以和0之間的最大數量爲張量的每個元件ZW的每個元素的值。
如何將我自己的relu函數應用於返回元素zw(如果它大於0且zw元素小於0時乘以0.1)?
那太好了,非常感謝 – Atirag