In Python (Pandas) lese ich aus meiner Datenbank und dann verwende ich eine Pivot-Tabelle, um Daten jeden Tag zu aggregieren. Die Rohdaten, an denen ich arbeite, sind etwa 2 Millionen Zeilen pro Tag und das pro Person und pro 30 Minuten. Ich aggregiere es stattdessen täglich, so dass es viel kleiner für die Visualisierung ist.Looping durch eindeutige Datumsangaben in PostgreSQL
Also in Pandas, würde ich jedes Datum in den Speicher lesen und aggregieren und dann in eine neue Tabelle in Postgres laden.
Wie kann ich das direkt in Postgres tun? Kann ich jedes eindeutige report_date in meiner Tabelle, groupby, durchlaufen und an eine andere Tabelle anhängen? Ich gehe davon aus, es in Postgres zu tun wäre schnell verglichen mit dem Lesen über ein Netzwerk in Python, Schreiben einer temporären CSV-Datei, und dann wieder über das Netzwerk schreiben.