Ich habe kürzlich die Wunder der Pakete bigmemory
, ff
und filehash
entdeckt, um sehr große Matrizen zu behandeln.Interaktiv arbeiten mit Listenobjekten, die massiven Speicher aufnehmen
Wie kann ich mit sehr großen (300MB ++) Listen umgehen? In meiner Arbeit arbeite ich jeden Tag mit diesen Listen. Ich kann überall Pflaster-Lösung mit save()
& load()
Hacks tun, aber ich würde eine bigmemory
ähnliche Lösung bevorzugen. Etwas wie ein bigmemory
bigmatrix
wäre ideal, wo ich mit ihm grundsätzlich identisch zu einem matrix
arbeite, außer es nimmt etwas wie 660 Bytes in meinem RAM auf.
Diese Listen sind meist >1000
Länge Listen lm()
Objekte (oder ähnliche Regressions Objekte). Zum Beispiel
Y <- rnorm(1000) ; X <- rnorm(1000)
A <- lapply(1:6000, function(i) lm(Y~X))
B <- lapply(1:6000, function(i) lm(Y~X))
C <- lapply(1:6000, function(i) lm(Y~X))
D <- lapply(1:6000, function(i) lm(Y~X))
E <- lapply(1:6000, function(i) lm(Y~X))
F <- lapply(1:6000, function(i) lm(Y~X))
In meinem Projekt werde ich A,B,C,D,E,F
Typ-Listen (und sogar mehr als das), die ich habe mit interaktiv zu arbeiten.
Wenn das gigantische Matrizen waren, gibt es eine Tonne Unterstützung. Ich habe mich gefragt, ob es ähnliche Unterstützung in irgendeinem Paket für große list
Objekte gab.
Fragen Sie nach Vorschlägen, welches Paket zu verwenden ist? – GSee
Appears ist zu vage, um "Best Practices" zu unterstützen. Es wäre notwendig, die Art dieser "Listen" zu beschreiben. Vielleicht eine der Datenbankschnittstellen. Codierungsberatung erfordert eine bessere Aufgabenbeschreibung. –
Schauen Sie sich das Paket [SOAR] (http://cran.r-project.org/web/packages/SOAR/index.html) vielleicht an? – mnel