gbm

    2熱度

    2回答

    我運行gbm()函數爲多個加性多項模型,每個模型有6個響應類別,每個類型在大型數據集上(每個模型約0.5-1 mio。行)。模型是這樣的(幾乎是默認值)。 gbm <- gbm(Y ~ A + B + C + D + E + F, data=data, var.monotone=c(0,0,0,0,0,0), distribution="multinomia

    1熱度

    2回答

    我在R中使用gbm包並應用'bernoulli'選項進行分配以構建分類器,並且我得到了'nan'的不尋常結果,而且我無法預測任何分類結果。但是當我使用'adaboost'時,我不會遇到同樣的錯誤。下面是示例代碼,我用虹膜數據集複製了相同的錯誤。 ## using the iris data for gbm library(caret) library(gbm) data(iris) Dat

    0熱度

    1回答

    我是新的python,我正在嘗試開發一個程序與梯度提升迴歸。 我有兩組大數據,一組訓練集和一組測試集,至少我有完全相同的列。我的目標是用訓練集的信息預測測試集的SeriousDlqin2yrs列。 這是我寫的程序: import numpy as np import csv as csv import pandas as pd from sklearn import ensemble fr

    0熱度

    1回答

    希望得到一些指針或某些經驗的洞察力,因爲我在字面上忽略了這一點,一直在嘗試2整天來設置正確的值以使函數吐出乾淨來自gbm.plot函數的簡單線圖(程序包dismo & gbm)。 這是我開始的地方。 bty = n在同等水平關閉方框&離開我只剩下&底部軸。 Gbm.plot通常會爲每個解釋變量吐出一個圖,因此通常有6個圖等,但我正在調整它,以便每個變量循環執行一個變量&。我已經刪除了很多其他代碼的

    1熱度

    1回答

    我正在嘗試使用脫字號來查找gbm模型的最佳參數。此代碼與我在其他數據集上使用的代碼完全相同,並且無法找出錯誤。 它似乎運行模型,但不能創建預測。 predictions failed for Fold2: interaction.depth=4, shrinkage=0.005, n.trees=200 Error in apply(tmp, 2, function(x, nm = modelFi

    0熱度

    1回答

    以下的運行問題this問題設置gbm.plot中的軸寬度;我現在直接使用plot.gbm,似乎無法刪除y軸標籤,這似乎是在plot.gbm函數代碼中設置的。 png(filename="name.png",width=4*480, height=4*480, units="px", pointsize=80, bg="white", res=NA, family="", type="cairo-p

    0熱度

    1回答

    (例如,從Fatal error with train() in caret on Windows 7, R 3.0.2, caret 6.0-21借來的),以優化偏差 我有這樣的例子: library("AppliedPredictiveModeling") library("caret") data("AlzheimerDisease") data <- data.frame(pred

    3熱度

    1回答

    是否可以繪製部分依賴關係圖來顯示類概率並估計GBM模型的預測因子的影響? 類似partialPlot從randomForest包。 根據this article,部分積是可行與GBM。 在此先感謝您的幫助。

    2熱度

    1回答

    我想在R中使用gbm.more函數。爲了清晰起見,我使用了規範化的虹膜數據。當我指定distribution =「multinomial」時,下面的代碼不起作用,但是當我指定distribution =「gaussian」時,代碼起作用。是否有這個原因,還是隻是一個功能的問題? data(iris) iris.mod=gbm(Species ~ ., distribution="multinom

    2熱度

    2回答

    我無法使用gbm軟件包計算ROC分數(AUC)。我正在推動迴歸樹。我運行的腳本是: testing.tc5.lr005 <- gbm.step(data=ModelData, gbm.x = 3:4, gbm.y = 2, family = "gaussian", tree.complexity = 5, learning.rate = 0.005, bag.fraction = 0.