對Pytorch模型執行超參數優化的最佳方法是什麼?實現例如隨機搜索我自己?使用Skicit學習?還是還有什麼我不知道的?Pytorch模型的超參數優化
5
A
回答
2
您可以使用Bayesian optimization(全面披露,本人對本軟件包有所貢獻)或Hyperband。這兩種方法都試圖使超參數調整階段自動化。 Hyperband據說是這個領域的最先進的技術。除了隨機搜索之外,Hyperband是我聽說過的唯一沒有參數的方法。如果您願意,您還可以考慮使用強化學習來學習最佳超參數。
0
要執行超參數優化,您既不需要Skicit Learn也不需要隨機搜索。你應該通過嘗試不同的超參數和監視你的錯誤率來照顧學習過程。例如:嘗試不同的學習速率,不同的優化算法(即ADAM,RMSprop,ADAGRAD)以及針對學習速率的不同調度等。此外,繪製學習曲線以檢查學習過程總是有用的。
4
黑箱優化最簡單的無參數方法是隨機搜索,它將比網格搜索更快地探索高維空間。有關於此的論文,但是隨機搜索博士您每次都會在每個維度上獲得不同的值,而使用網格搜索則不會。
Bayesian optimisation有很好的理論保證(儘管有近似值),像Spearmint這樣的實現可以包裝任何腳本;有超參數,但用戶在實踐中看不到它們。 Hyperband由於顯示出比樸素貝葉斯優化更快的收斂性而備受關注。它能夠通過運行不同的網絡來進行不同次數的迭代,而貝葉斯優化並不能夠天真地支持。儘管可以考慮使用貝葉斯優化算法(如FABOLAS),但實際上超高頻帶非常簡單,但您可能更好地使用它並觀看它以間隔調整搜索空間。
相關問題
- 1. Pytorch負載模型
- 2. pytorch中的模型概要
- 3. Rails模型優化
- 4. Simulink中約束條件下模型參數的優化
- 5. Django的模型優化
- 6. 估計的優化模型
- 7. 將參數傳遞迴模型以優化隨機動作
- 8. 爲什麼不優化火車數據集上的超參數?
- 9. 優化word2vec模型比較
- 10. SQL模型優化問題
- 11. 優化Django代碼模型
- 12. 正規化SAS參數化模型
- 13. Python中的參數優化
- 14. 具有多個輸入的網絡的超參數優化?
- 15. 優化的超參數進行深網絡
- 16. 隨機搜索超參數優化的改進
- 17. 超參數調整的受控貝葉斯優化
- 18. 何時在PyTorch中使用單獨的優化器?
- 19. 模板化的枚舉類型參數
- 20. 爲單一大型模型優化Three.js
- 21. 參數化類型的類型參數
- 22. R優化多個參數
- 23. Pytorch,類型錯誤:對象()不帶任何參數
- 24. 只讀對象模型的SqlAlchemy優化
- 25. 函數模板上的C++編譯器優化返回參數
- 26. 帶模板布爾參數的函數:保證被優化?
- 27. 函數參數的編譯器優化
- 28. 優化函數的參數輸入
- 29. R中參數數量高的優化
- 30. 當模板參數相同時,C++優化類模板功能
-1是什麼原因? – Alex