2
我在早期停止時使用XGBoost。大約1000年後,模型仍在改進,但改善的幅度非常低。 I .: .:爲XGBoost提前停止設置Tolt
clf = xgb.train(params, dtrain, num_boost_round=num_rounds, evals=watchlist, early_stopping_rounds=10)
是否可以設置「tol」來提前停止?即:不觸發早期停車所需的最低程度的改善。
Tol是SKLearn模型中的常用參數,例如MLPClassifier和QuadraticDiscriminantAnalysis。謝謝。