它是線性代數共同優化的乘法然後通過附加僞恆定尺寸的輸入,那麼整個變成單個乘法(Wx + b => W'x'
)添加公共的操作。Tensorflow優化乘法然後添加
有沒有在Tensorflow這樣做任何好處,還是會優化該反正(例如tf.matmul(...) + b
與tf.matmul(...)
)
它是線性代數共同優化的乘法然後通過附加僞恆定尺寸的輸入,那麼整個變成單個乘法(Wx + b => W'x'
)添加公共的操作。Tensorflow優化乘法然後添加
有沒有在Tensorflow這樣做任何好處,還是會優化該反正(例如tf.matmul(...) + b
與tf.matmul(...)
)
是你所談論的不是增加速度,減少了內存的優化。這只是縮短數學表達式的一種方法。
b
你只是在前面加上/與b
同樣大小的列追加你的矩陣向量沒有減少。n
元素b_i
如果您只是添加一個向量來添加n
元素計算爲c_i * x_i
。在TF中這樣做沒有好處(在速度/記憶方面),並且不,TF本身並不優化它。
如果你更容易閱讀和理解那裏正在發生的事情,你可以自由地以這種方式寫。
你能解釋爲什麼你認爲這不會提高速度或減少內存?我一直認爲它的確如此。 – SRobertJames
我也會好奇聽到你的理由,爲什麼它應該改善任何事情。我在答案中加上了我的理由 –
添加不需要的乘法優化? – user1735003