Ich habe zwei DynamoDB-Tabellen: Table_1 und Table_2. Ich versuche, Tabelle_1 abzulehnen und Informationen aus Tabelle_1 in Tabelle 2 zu kopieren, die unterschiedliche GSIs und verschiedene LSIs aufweist.Kopieren der DynamoDB-Tabelle in eine andere DynamoDB-Tabelle mit Transformationen
Table_1 Attribute sind: Id, Zustand, isReused, leer, normal
table_2 Attribute sind: Benutzer-ID, Status, iSold, normal
Id Karten zu UserId, Zustand Karten Status, Normal Maps zu normalen , leer wird aus Tabelle_2 gelöscht, und wenn der Status "OLD" ist, wird isOld auf wahr gesetzt.
Was ist der beste Weg, diese Daten aus Table_1 zu exportieren, die Transformation für die Attribute/Daten durchzuführen und dann die Informationen wieder in Table_2 zu laden?
Momentan kann ich AWS Data Pipeline zum Importieren/Exportieren von Daten aus Table_1 in Table_2 mit den angegebenen Vorlagen verwenden, die Transformationen werden jedoch nicht ausgeführt. Ich vermute, dass ich EMR verwenden muss, um die Transformationen zu machen.
Ich verwende auch DynamoDB-Streams, um die Tabelle synchron zu halten, aber aus meiner Sicht streamt DynamoDB Streams nur aktualisierte Informationen, nicht Informationen, die bereits in einer Tabelle vorhanden sind.
Datapipeline nicht die Lösung ist, erforschen dynamo DB Ströme – Shibashis
@Shibashis nur Ströme gibt Updates/Modifikationen an der ursprünglichen Tabelle, nicht auf die bereits vorhandenen Daten. Ich verwende derzeit DynamoDB-Streams, um neue Updates synchron zu halten. – nat
Möglicherweise müssen Sie hierfür einen benutzerdefinierten EMR-Job erstellen. Die Datenpipeline ist ein EMR-Job ohne die Anpassung. – Shibashis