Es scheint Unterschiede zwischen der ROC/Sens/Spec, die beim Abstimmen des Modells erzeugt wird, zu den tatsächlichen Vorhersagen zu geben, die vom Modell für denselben Datensatz gemacht werden. Ich benutze Caret, das kernlab ksvm verwendet. Ich habe dieses Problem mit Glm nicht.Kreuzvalidierungs-Vorhersagen für Caret und SVM
data(iris)
library(caret)
iris <- subset(iris,Species == "versicolor" | Species == "setosa") # we need only two output classess
iris$noise <- runif(nrow(iris)) # add noise - otherwise the model is too "perfect"
iris$Species <- factor(iris$Species)
fitControl <- trainControl(method = "repeatedcv",number = 10, repeats = 5, savePredictions = TRUE, classProbs = TRUE, summaryFunction = twoClassSummary)
ir <- train(Species ~ Sepal.Length + noise, data=iris,method = "svmRadial", preProc = c("center", "scale"), trControl=fitControl,metric="ROC")
confusionMatrix(predict(ir), iris$Species, positive = "setosa")
getTrainperf(ir) # same as in the model summary
Worauf beruht diese Diskrepanz? Welche sind die "echten" post-cross-validation-Vorhersagen?