Momentan arbeiten wir an Spark 2.0, und ich möchte wissen, wie der Gradient der Verlustfunktion während des Funkentrainings geändert wurde, mit dem der Trainingsprozess visualisiert werden kann. Zum Beispiel habe ich den folgenden Code:Wie bekomme ich den Gradienten der Verlustfunktion während des Trainings mit spark 2.0?
// Load training data in LIBSVM format.
val data = MLUtils.loadLibSVMFile(sc, "data/mllib/sample_libsvm_data.txt")
// Split data into training (60%) and test (40%).
val splits = data.randomSplit(Array(0.6, 0.4), seed = 11L)
val training = splits(0).cache()
val test = splits(1)
// Run training algorithm to build the model
val model = new LogisticRegressionWithLBFGS()
.setNumClasses(10)
.run(training)
und ich weiß, gibt es einige Klassen unter Paket „org.apache.spark.mllib.evaluation“ verwendet werden, kann einige Metriken aus dem Modell zu bekommen, aber ich Ich kann immer noch nicht wissen, wie sich der Gradient der Verlustfunktion während des Trainings verändert hat.
Gibt es dafür eine Lösung?
Wie Sie bereits erwähnt haben, nur LogisticRegression Unterstützung, Verlustfunktion so zu bekommen, ich frage mich nur, ob es einen Plan, um Zusammenfassungsfunktionen zu allen anderen Trainingsmethoden, wie KMeans, DecisionTree, etc. zur Verfügung zu stellen –