xgboost

    1熱度

    1回答

    是否有一個簡單的輪XGboost ML庫可用於Win 7和32位和python 3.4,因爲我找不到http://www.lfd.uci.edu/~gohlke/pythonlibs/#xgboost,並不想去Vis C++編譯器讓dll路由? 雖然輪蟒蛇35和36都可以有 由於從https://www.lfd.uci.edu/~gohlke/pythonlibs/#xgboost

    3熱度

    2回答

    儘管XGB被編譯爲在GPU上運行,但在通過Scikit學習API調用/執行時似乎並不是在GPU上運行。 請告知,如果這是預期的行爲

    1熱度

    1回答

    我正在Python中使用XGBoost(PyPl上最新版本:0.6)的預測模型,並且已經開發了大約一半數據的訓練。現在我有了最後的模型,但是我得到了所有數據的訓練結果,但是得到了以前從未見過的信息: 樹方法自動選擇爲「近似」以獲得更快的速度。 使用舊的行爲(單臺機器上確切貪婪算法),設置 tree_method到「精確」」 作爲reproduceable例如,下面的代碼也產生我的機器上的消息: i

    1熱度

    1回答

    我已經安裝了XGBoost。 這些做的時候是參數則顯示:(xgboost.XGBClassifier()) XGBClassifier(base_score=0.5, colsample_bylevel=1, colsample_bytree=1, gamma=0, learning_rate=0.1, max_delta_step=0, max_depth=3, min_ch

    1熱度

    1回答

    我的第一個多類分類。我有價值觀Xtrn和Ytrn。 Ytrn有5個值[0,1,2,3,4]。但是,如果我開始然後得到「多類格式不支持」。 值的這個例子: Xtrn Ytrn -1.35173485 1.50224188 2.04951167 0.43759658 0.24381777 2 2.81047260 1.31259056 1.39265240 0.1638

    0熱度

    1回答

    當我做pip安裝xgboost時出現如下所示的錯誤。我相信還有另一種使用git的方法?但我不明白如何完全做到這一點(一步一步) - 我是這個新手。非常感謝幫助 192-168-1-10:Desktop yadav_sa$ pip install xgboost Collecting xgboost Using cached xgboost-0.6a2.tar.gz

    1熱度

    2回答

    我已經在CUDA 8.0和libcudnn.so.5.1.10的Ubuntu 16.04上安裝了H2O 3.11.0.266,所以我相信H2O應該能夠找到我的GPU。 但是,當我在Python中啓動h2o.init()時,沒有看到它實際上使用我的GPU的證據。我看到: H2O簇總芯:8 H2O集羣允許芯:8 這是相同的,因爲我在以前的版本(預GPU)了。 此外,http://127.0.0.1:5

    2熱度

    1回答

    我在早期停止時使用XGBoost。大約1000年後,模型仍在改進,但改善的幅度非常低。 I .: .: clf = xgb.train(params, dtrain, num_boost_round=num_rounds, evals=watchlist, early_stopping_rounds=10) 是否可以設置「tol」來提前停止?即:不觸發早期停車所需的最低程度的改善。 Tol是S

    0熱度

    1回答

    我想繪製使用xgboost的功能重要性。 下面的代碼顯示了這個問題。 len(dtrain.feature_names), len(model.get_score().values()), len(model.get_fscore().values()) (289, 269, 269) 當我正在嘗試取得樂譜時,發生了什麼,以便休息20列。 我錯過了什麼。我對此非常幼稚。

    1熱度

    1回答

    我正在解釋我的XGBoost模型。舉個例子,下面,分別將兩個數據集trainInput和trainOutput: df.trainInputs input1 input2 input3 0 1 0 0 1 1 1 0 2 0 1 1 .. df.trainOutputs output 0 1 1 0 2 1 ... 用戶輸入過一