hyperparameters

    1熱度

    2回答

    所以,我有一個分類,它看起來像 clf = VotingClassifier(estimators=[ ('nn', MLPClassifier()), ('gboost', GradientBoostingClassifier()), ('lr', LogisticRegression()), ], voting='soft') 而且我想基本

    -1熱度

    1回答

    我想執行超參數搜索。在每個參數組合上,我正在創建適當的圖形並對其進行訓練。內部圖形中有可能性圖的摘要。 如何組織張量板報告以便在一個頁面中查看所有內容? 我可以有不同的logdir名稱,還有什麼選擇?

    2熱度

    1回答

    我想爲Keras做一個多類分類的網格搜索。下面是一段代碼: 數據的一些屬性如下: y_ array(['fast', 'immobile', 'immobile', ..., 'slow', 'immobile', 'slow'], dtype='<U17') y_onehot = pd.get_dummies(y_).values y_onehot array

    1熱度

    1回答

    我試圖找出如何建立一個工作流程sklearn.neighbors.KNeighborsRegressor包括: 正常化功能 特徵選擇(20的最佳子集數字特徵,沒有特定的總) 交叉驗證超參數K的範圍爲1〜20 交叉驗證模型 使用RMSE作爲誤差度量 scikit-learn中有很多不同的選項,我有點不知所措,試圖決定我需要哪些類。 而且sklearn.neighbors.KNeighborsRegr

    5熱度

    3回答

    對Pytorch模型執行超參數優化的最佳方法是什麼?實現例如隨機搜索我自己?使用Skicit學習?還是還有什麼我不知道的?

    -1熱度

    1回答

    是否有一種使用GridSearch自動調整隨機森林分類器的方法。我們沒有提供這些值,而是有任何方法可以找到最佳的最佳參數值。 rfc = RandomForestClassifier(n_jobs=-1, max_features='sqrt', oob_score = True) # Use a grid over parameters of interest param_

    -1熱度

    1回答

    我的機器學習研究。 我已經研究了一些關於確定svm參數範圍的文檔。 它們中的一些提供的10諸如功率[1,10,100,..]和另一者提供的2如功率[0.03125,0.125,0.5,2,8,...]。 我想使用sklearn包的網格搜索來運行svm。 我不知道這些範圍中的哪一個是合適的。 他們之間有什麼不同?

    4熱度

    1回答

    我在想兩個不同分類器的超參數是否存在某種相關性。 例如:讓我們說,我們與最佳超參數(通過GridSearch找到)數據集運行LogisticRegression,並希望對同一數據集運行另一個分類像SVC(SVM分類),而不是使用GridSearch找到所有的超參數,我們是否可以修復一些超參數的值(或減少範圍來限制GridSearch的搜索空間)? 作爲一個實驗,我用scikit-learn的分類像

    0熱度

    2回答

    我目前嘗試構建具有多個輸出的MLP。 對於單輸出MLPs我通常使用H2o打包實現,它具有很好的隨機網格搜索功能。由於H2o不支持多個輸出,所以我切換到了mxnet軟件包。 現在我試圖找到一種方法來調整我的MLP參數。我無法在R中找到任何爲多個輸出提供參數調整的軟件包,並允許使用mxnet。 你知道任何軟件包還是你有自我實現的超參數搜索功能? 謝謝! 編輯在評論的原因: 具有多個輸出的我的意思是多個

    1熱度

    1回答

    使用貝葉斯優化和一些啓發式選擇來使用超參數調整的最佳方式是什麼? 在諸如spearmint或hyperopt的軟件包中,您可以指定一個範圍來探索,但我也想探索一些不一定屬於該範圍的啓發式值。任何建議什麼是這樣做的最佳做法?