Ich habe ein PHP-Skript, das eine API-Methode aufruft, die 6k + -Ergebnisse problemlos zurückgeben kann.INSERT 6000 Zeilen - Best Practice
Ich benutze PEAR DB_DataObject, um jede Zeile in einer foreach-Schleife in den DB zu schreiben.
Das obige Skript verarbeitet im Batch 20 Benutzer gleichzeitig - und obwohl einige nur wenige Ergebnisse von der API haben, werden andere mehr haben. Worst Case ist, dass alle 1000 Ergebnisse haben.
Die Schleife zum Aufruf der API scheint in Ordnung zu sein, Chargen von 20 alle 5 Minuten funktioniert gut. Meine einzige Sorge ist 1000 von mysql INSERTs für jeden Benutzer (mit einer langen Pause zwischen jedem Benutzer für frische API-Aufrufe)
Gibt es eine gute Möglichkeit, dies zu tun? Oder mache ich es gut ?!
Ich fand [Dieser Beitrag helfen könnte] [1] es das gleiche Problem lösen Ich denke [1]: http://stackoverflow.com/questions/1176352/pdo-prepared-inserts-multiple -rows-in-single-Abfrage –