2013-04-22 2 views

Antwort

3

Datenpipeline ist ein Dienst, der zum Übertragen von Daten zwischen verschiedenen AWS-Diensten verwendet wird. Beispiel Sie können DataPipeline verwenden, um die Protokolldateien von Ihrem EC2 zu lesen und sie regelmäßig nach S3 zu verschieben.

Einfache Workflow-Service ist sehr leistungsstarker Service. Sie können sogar Ihre Workflow-Logik damit schreiben. Beispiel: Die meisten E-Commerce-Systeme haben Skalierbarkeitsprobleme in ihren Bestellsystemen. Sie können in SWF Schreibcode verwenden, um diesen Workflow für die Bestellung selbst zu erstellen.

5

Von http://aws.amazon.com/datapipeline/faqs/

F: Wie ist AWS Daten Pipeline unterscheidet sich von Amazon Simple Workflow- -Service?

Während beiden Dienste Ausführung Tracking bieten, wiederholen und Ausnahmebehandlung Fähigkeiten und die Fähigkeit zu laufen sind willkürlich Aktionen, AWS Daten Pipeline speziell auf die konkreten Schritte zu erleichtern entworfen, die über eine Mehrheit von datengesteuerten gemeinsam sind Workflows - insbesondere Ausführen von Aktivitäten nach ihren Eingabedaten erfüllt spezifische Bereitschaftskriterien, leicht Kopieren von Daten zwischen verschiedenen Datenspeichern und Terminierung verketteten Transformationen. Dieser spezielle spezifische Fokus bedeutet, dass seine Arbeitsablaufdefinitionen sehr schnell und ohne Code- oder Programmierkenntnisse mit erstellt werden können.

Verwandte Themen