反向傳播算法中閾值的用途是什麼?我爲類標籤識別編寫了一個java代碼。我對神經元使用了一些隨機閾值(0-1)。我訓練了系統並使用一些數據進行了測試。它工作得很好。但算法在使用閾值或不使用閾值時有什麼區別。反向傳播閾值
反向傳播閾值
回答
你所說的「門檻」有什麼實際上是由神經元
f(w,x,b) = g(<w,x>+b)
偏見不應該被用來作爲一個常量表示在仿射變換偏見按照你的建議,而是 - 訓練有素,就像網絡中的任何其他參數。通常一個簡單的增加了一個hypothethical「偏見神經元」總是等於1,所以偏見成爲另一種重量
f(w,x,b) = g(<[w b], [x 1]>)
爲什麼重要的是有偏見?一般來說,沒有偏見的手段,在你的神經元訓練過的「過濾器」(特徵探測器)必須經過原點。您可以將每個神經元視爲輸入空間中的一個超平面,並在其中「摺疊」空間,以便數據變得更加可分離。如果你沒有偏見 - 所有這些超平面都靠近原點。如果您將它們修復爲常量 - 您可以修復它們與原點的距離。最後,如果你訓練它們 - 算法可以自由地將它們放入輸入空間(所需的行爲)。
我不明白你使用的術語。請你簡單點。我是一個新手,只是基於算法和應用的閾值來完成這個代碼。這裏有什麼偏見?你正在使用的函數'f'和'g'是什麼。如果你有watsapp或者facebook賬戶,請給我詳細的信息,我有一些懷疑,因爲我正在爲此發佈(Journal)。謝謝:) – mRbOneS
說實話,這是最簡單的術語。你有一個節點,節點的輸出描述爲g(
現在我明白了。如果我們在-1到+1之間隨機生成權重和閾值,這是否正確?有沒有任何方法或公式(取決於其他參數),我們如何生成隨機權重或只使用random()函數。 – mRbOneS
- 1. 反向傳播
- 2. 閾值後的反向計數
- 3. 反向傳播算法
- 4. chainer.functions.get_item如何反向傳播?
- 5. 反向傳播的問題
- 6. 什麼是反向傳播?
- 7. 卷積反向傳播
- 8. 反向傳播問題
- 9. keras反向傳播中的跳過層
- 10. 通過時間反向傳播
- 11. 反向傳播算法實現
- 12. 反向傳播中的梯度檢查
- 13. 神經網絡(反向傳播)
- 14. 多層感知器 - 反向傳播
- 15. 調試反向傳播算法
- 16. 神經網絡的反向傳播 - Python
- 17. 從反向傳播中排除OneHot op
- 18. 反向傳播不工作的XOR
- 19. 反向傳播訓練神經網絡
- 20. tf.sign如何處理反向傳播?
- 21. 反向傳播:何時更新權重?
- 22. Encog反向傳播錯誤不變
- 23. 如何調整權重 - 反向傳播
- 24. Tensorflow錯誤,通過conv2d反向傳播
- 25. 反向傳播學習未能收斂
- 26. 神經網絡反向傳播
- 27. 反向傳播訓練卡住
- 28. 神經網絡和反向傳播
- 29. Tensorflow中的LSTM反向傳播
- 30. 反向傳播使網絡更糟
你的意思是「偏見」。激活總是有一個門檻。使用偏差單位,您可以調整閾值。 – runDOSrun
是否有任何方法或公式(取決於其他參數)是如何生成隨機權重或僅使用random()函數的。 – mRbOneS
小,隨機權重接近0是最常見的。 – runDOSrun