2012-03-25 7 views
0

Was ist der beste Weg, um große Daten zu handhaben PHP Array Vergangenheit obwohl mehrere Ajax Anfragen.Umgang mit "großen Daten Json Anfragen" mit mehreren Ajax Anfragen

Zum Beispiel. Ich habe ein PHP-Array, das 10.000 Produkt-IDs enthält, die das Ergebnis der ersten Ajax-Anfrage ist Einmal auf der zweiten Ajax-Anfrage muss ich zuerst erneut abfragen, um die 10.000 Produkt-IDs dann zusätzlich die zweite Anfrage kann ein weiteres abrufen 3000 Produkt-IDs

So ist der Prozess: in jeder Anfrage müssen wir die Produkt-IDs anhängen/entfernen.

Die Methode, die ich derzeit untersuche, speichert die IDs über Sitzung oder Cookie. Aber die beste Lösung wäre, das Array dann durch jsonEncode

serialisieren Das Problem ist, dies muss zu viel Daten sein, um jede Anfrage zu durchlaufen. Ich habe derzeit versucht, ein globales an der Spitze unseres Skripts zu setzen.

var globalProductIds = 0

dann auf Erfolg jeder Anfrage würden wir die Produkt-IDs außer Kraft setzen und mit der nächsten Anforderung senden. globalProductIds = data.productIds;

Derzeit friert das den Browser ein. Die einzige andere Methode, die ich mir vorstellen kann, wenn json nicht funktioniert, wäre, die IDs in der Datenbank zu speichern. Dies ist keine besonders gute Lösung, da für jeden Benutzer pro Minute 1000 Zeilen generiert werden können.

Hoffentlich hat jemand da draußen einen besseren Vorschlag.

Antwort

0

Ok es scheint, ich habe keine Antwort in den letzten 24 Stunden. Nach weiteren Recherchen scheint Javascript nicht die beste Methode für die Verarbeitung großer Datenmengen zu sein.

Ich habe jetzt begonnen, ein Caching-System zu erstellen, die die Datenbank verwendet. Dies scheint jetzt die beste Lösung zu sein.