1

我想計算不斷卷積像模糊或重新取樣,並希望它永遠不會改變durung訓練。Keras中可以有不可訓練的層嗎?

我可以將卷積核初始化爲常量並將其排除在Keras中的訓練之外?

UPDATE

我不想用這個在文檔中聲明的目的。我想這樣實現殘留網絡:一個分支執行正常的可訓練卷積,而並行分支執行一些常量,如平均。

回答

2

您應該能夠將trainable = False參數傳遞到圖層定義,或者在創建圖層後設置layer.trainable = False屬性。在後一種情況下,你需要在事實之後進行編譯。請參閱FAQ here

然後,您可以通過傳遞kernel_initializer = initializer argument來設置層的恆定權重。有關初始化程序的更多信息can be found here。如果你已經在某個地方定義了權重矩陣,我認爲你需要定義一個自定義初始化器來將權重設置爲你想要的值。該鏈接顯示瞭如何在底部定義自定義初始化程序。

這就是說,我沒有驗證過,當我做了Google搜索時,我看到很多關於圖層凍結的bug報告彈出不正確。值得一槍,但。

+0

一旦我設置圖層不可訓練,我該如何設置卷積權重? – Dims

+0

@Dims查看我的更新。希望有幫助。 – Engineero

相關問題