Ich habe eine riesige CSV-Datei, 1.37 GB, und wenn ich meine Glm in R, stürzt es ab, weil ich nicht genügend Speicher zugewiesen haben. Sie wissen, der reguläre Fehler ..Effizienter Weg, um große Daten in R
Gibt es keine Alternative zu den Paketen ff und bigmemory, weil sie nicht gut für mich arbeiten, weil meine Spalten eine Mischung aus ganzen Zahlen und Zeichen sind, und es scheint mit den beiden Pakete Ich muss angeben, welcher Typ meine Spalten sind, entweder Char oder Integer.
Wir sind bald im Jahr 2018 und im Begriff, Leute auf Mars zu setzen; Gibt es keine einfache "read.csv.xxl" -Funktion, die wir verwenden können?
Sie haben nicht 2 GB Arbeitsspeicher auf Ihrem Computer? Vielleicht Zeit für ein Upgrade. – lmo
Ich habe 8 GB, aber die glm-Berechnung stürzt ab. – HeyJane
hat einen der Zeiger in http://www.bnosac.be/index.php/blog/10-bigglm-on-your-big-data-set-in-open-source-r-it-just-works ähnlich wie in sas arbeiten? – hrbrmstr