Beim Durchsuchen von stackoverflow fand ich eine große Anzahl von Antworten, die die Verwendung von Cursorn bei der Datenbankprogrammierung verurteilten. Allerdings verstehe ich nicht wirklich, was die Alternative ist.Was ist die Alternative zu Cursorn, um große Datenmengen aus einer Datenbank abzurufen?
Ich erstelle ein Programm, das eine große Anzahl von Zeilen (Hunderttausende) aus der Datenbank liest und aus Leistungsgründen im Speicher hält. Ich kann nicht wirklich eine SELECT * FROM-Tabelle ausführen und alle Ergebnisse auf einmal verarbeiten, oder?
Der beste Weg, den ich gefunden habe, ist Cursor zu verwenden und die Zeilen in Inkrementen, zum Beispiel 10 auf einmal abrufen.
Konnte jemand mich erleuchten? Ich benutze PostgreSQL 9 unter Linux.
Dank
Ich möchte die Daten nicht aktualisieren. Ich möchte sie aus Performancegründen in Datenstrukturen speichern. Also möchte ich sie in großen Mengen von der Datenbank in einen Prozess übertragen. Gibt es eine Cursor-Alternative dazu? –