Ich habe data.table in r mit 150 000 Zeilen drin. Ich benutze 9 Funktionen und es ist Trainingszeit mehr als 30 Minuten, ich habe nicht mehr gewartet. Probieren Sie es auch in 500 Zeilen aus (es dauert 0,2 Sekunden) und bei 5000 dauert es (71,2 Sekunden). Also wie soll ich mein Modell mit allen Daten trainieren oder darfst du mir noch einen anderen Rat geben?Wie neurales Netzwerk mit großen Datensätzen in R mit neuronalen Netzen trainieren?
hier kompilieren log:
train1 <- train[1:5000,]+1
> f1 = as.formula("target~ v1+ v2+ v3+ v4+ v5+ v6+ v7+ v8+ v9")
> a=Sys.time()
> nn <-neuralnet(f1,data=train1, hidden = c(4,2), err.fct = "ce", linear.output = TRUE)
Warning message:
'err.fct' was automatically set to sum of squared error (sse), because the response is not binary
> b=Sys.time()
> difftime(b,a,units = "secs")
Time difference of 71.2000401 secs
Nicht sicher, wonach Sie fragen! In MATLAB kümmert sich die NN Toolbox um fast alles, wie das Normalisieren von Daten, das Entfernen von fehlenden und konstanten Werten, das Unterteilen von Daten in Segmente für Training, Validierung und Testen. Sie benötigen normalerweise keine BIG-Daten und Sie können auch eine Probe für die Schulung/Validierung und eine weitere Probe zum Testen usw. verwenden. Auch können verschiedene Übertragungsfunktionen und verschiedene Lernalgorithmen für die Approximation/Regression oder Klassifikation verwendet werden. – Celdor
MXNet ist das beste R-Paket, das ich für das Trainieren von neuronalen Netzen gefunden habe: http://myungjun-yo-en-emo.readthedocs.org/en/latest/R-package/ – Zelazny7
danke, es wird das Paket versuchen. –