0
目前,我們正在研究Spark 2.0,並且我想知道火花訓練過程中損失函數的梯度如何變化,這可以用於可視化訓練過程。 例如,我有以下代碼:如何在spark 2.0訓練過程中獲得損失函數的梯度?
// Load training data in LIBSVM format.
val data = MLUtils.loadLibSVMFile(sc, "data/mllib/sample_libsvm_data.txt")
// Split data into training (60%) and test (40%).
val splits = data.randomSplit(Array(0.6, 0.4), seed = 11L)
val training = splits(0).cache()
val test = splits(1)
// Run training algorithm to build the model
val model = new LogisticRegressionWithLBFGS()
.setNumClasses(10)
.run(training)
,我知道有包下一些類「org.apache.spark.mllib.evaluation」可以用來從模型中的一些指標,但我我仍然無法知道在訓練過程中損失函數的梯度如何變化。
有沒有解決方案?
正如你所提到的,只有LogisticRegression支持以這種方式獲得損失函數,我只是想知道是否有計劃爲所有其他培訓方法提供彙總函數,如KMeans,DecisionTree等。 –