abgerufen werden Ich arbeite an dem Importieren einer Dynamo-Tabelle zu S3 mit Nodejs. Ich habe alles funktioniert gut, aber die gesamte Kopie ist ziemlich langsam, da ich Millionen von Datensätzen habe und der sequenzielle Scan auf 1 MB beschränkt ist, so schaue ich in einem parallelen Scan für Dynamo dB mit Knoten.wie Daten mit Dynamodb parallelen Scans mit Nodejs
Aber um das zu tun, muss ich mehrere Threads erstellen und den Threads im Knoten die parallele Arbeit zuweisen. Ich würde gerne wissen, ob es eine empfohlene Vorgehensweise gibt, oder schlagen Sie vor, Data Pipeline für den Datenimport zu verwenden? Wie denkst du, sollte ich darüber nachdenken?