I eine data.frame habe (link to file) mit 18 Spalten und Zeilen, die 11520 I wie folgt transformieren:wie dieser R-Code beschleunigen
library(plyr)
df.median<-ddply(data, .(groupname,starttime,fPhase,fCycle),
numcolwise(median), na.rm=TRUE)
nach System.Time(), dauert es etwa Diese lang zum laufen:
user system elapsed
5.16 0.00 5.17
Dieser Aufruf ist Teil einer Webanwendung, so dass die Laufzeit ziemlich wichtig ist. Gibt es eine Möglichkeit, diesen Aufruf zu beschleunigen?
Können Sie die Ergebnisse zwischenspeichern? – Shane
'ddply()' ist in erster Linie * praktisch *. Wenn Sie etwas schnell brauchen, müssen Sie möglicherweise die Logik neu implementieren. –
@Shane: Es gibt derzeit 3 * 400 mögliche Datensätze (und täglich steigend), die ein Benutzer anfordern könnte. Es ist unwahrscheinlich, dass ein Benutzer auf denselben Datensatz wie ein anderer trifft. Caching wäre also nur in einer Sitzung sinnvoll. Da die Ausgabe der Webanwendung im Wesentlichen ein vordefinierter Bericht ist, glaube ich nicht, dass der Benutzer sie normalerweise mehr als einmal anfordern würde. Würden Sie Caching für die von mir beschriebene Situation implementieren? Ich habe es noch nie gemacht, also bin ich etwas verloren. – dnagirl