xgboost

    4熱度

    2回答

    我在R中建模聲明頻率(poisson distr)。我使用的是gbm和xgboost包,但似乎xgboost沒有用於考慮曝光的偏移參數? 在gbm,一個將採取曝光考慮如下: gbm.fit(x = train,y = target, n.trees = 100,distribution = "poisson", offset = log(exposure)) 如何實現與`xgboost一樣嗎?

    9熱度

    2回答

    我正在嘗試用於預測的XGBoost技術。由於我的因變量是連續的,我正在使用XGBoost進行迴歸,但大多數可用於各種門戶的參考都是用於分類的。雖然我知道通過使用 objective = "reg:linear" 我們可以做迴歸,但仍然需要一些其他參數的清晰度。如果有人能爲我提供一個R代碼段,這將是一個很大的幫助。

    12熱度

    1回答

    XGBoost使用加法訓練方法,在該方法中,它模擬以前模型的殘差。 這是連續的,但它是如何並行計算呢?

    1熱度

    2回答

    我用xgboost做邏輯迴歸。我按照步驟from,但我有兩個問題。數據集被發現here。 首先,當我運行後續代碼: bst <- xgboost(data = sparse_matrix, label = output_vector,nrounds = 39,param) 然後,我得到了 [0]train-rmse:0.350006 [1]train-rmse:0.245008 [2]tr

    3熱度

    4回答

    我已經創建了一個xgboost分類器在Python所有行相同的預測值: 列車是一個數據幀的熊貓由100K行和50層的特徵爲列。 目標是熊貓系列 xgb_classifier = xgb.XGBClassifier(nthread=-1, max_depth=3, silent=0, objective='reg:linear', n_estimators=100) xg

    7熱度

    1回答

    有人可以解釋xgboost R包中的Cover列是如何在xgb.model.dt.tree函數中計算的? 在文檔中,它表示Cover 「是度量受拆分影響的觀測值數量的指標」。 當您運行xgboost此功能的文檔中給出的以下代碼時,樹0的節點0的Cover爲1628.2500。 data(agaricus.train, package='xgboost') #Both dataset are l

    0熱度

    1回答

    我正在使用XGBoost進行一些實驗。 我設置迭代次數爲1000,得到的結果 - 不無道理.. 比我嘗試做不同的事情: 而不是運行1000次迭代我想運行100次迭代,這一個重複10次(總共也有1000次迭代)。 在這十步之間我設置了: target_learn = target_learn - target_fitted(從前一步)。 和比target_fitted = target_fitted

    5熱度

    3回答

    我使用XGBoost的python實現。其中一個目標是rank:pairwise,它最大限度地減少了成對損失(Documentation)。但是,它並沒有說明輸出的範圍。我看到-10到10之間的數字,但是原則上可以 - 爲了inf?

    1熱度

    1回答

    我是新來的XGBOOST包,我想用它來處理多類分類問題。 我現在有30個類(或標籤),我已經將它們轉換爲整數(0 - 29)。然後,我從數據集上的XGBOOST包運行xgboost()方法。建立模型後,我使用predict()方法來預測新的測試數據。最後,我得到了一個數字矢量作爲最終輸出。順便說一句,所有的數字都在0和1之間。 那麼現在我怎麼能解釋輸出呢?這是可能性嗎?但是,我怎麼知道哪一類應該關

    1熱度

    1回答

    我在兩臺機器上安裝XGBoost(0.4)的完全相同的版本。兩臺機器唯一的區別是RAM和內核數量(8對16)。 使用完全相同的數據,我無法重現相同的結果。它們稍有不同(小數點後四位,五位)。 種子被保留爲默認值。