Die AWS-Dokumentation importiert Daten aus S3 in eine Dynamo-DB-Tabelle mit Datenpipeline (https://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-importexport-ddb-part1.html) Verweise auf eine S3-Datei (s3: // elasticapreduce/samples/Store/ProductCatalog), die in diesem Format ist:Konvertieren von CSV in das erforderliche Format für den Import in DynamoDB mit AWS Datapipeline
Frage ... ist, wie bekomme ich eine CSV-Zeilen in erster Linie in dieses Format 4 Millionen sagen? Gibt es dafür eine Möglichkeit?
Danke für irgendwelche Vorschläge ... Ich hatte einen guten Google und habe nichts gefunden.
Vielleicht ist es immer die Absicht, Daten zuerst von Dynamo nach S3 zu exportieren (sichern Sie es) und dann können Sie diese immer wieder importieren ... und so haben Sie die Datei im richtigen Format .... Aber nicht so sehr ein erster Import in Dynamo Workflow, die ich versuche zu erreichen. –
Ich habe dies einmal über einen benutzerdefinierten Pipeline-Job getan. Ich poste nicht als Antwort, da ich nicht den Link oder eine Kopie dessen, was ich genau verwendet habe, habe. Es war ungefähr so: https://github.com/awslabs/data-pipeline-samples/blob/master/samples/DynamoDBImportCSV/CSVtoDynamoDB.json – stevepkr84