2016-07-15 4 views
0

Ich versuche, Datenfluss-Pipeline mit Feder Wolke Datenfluss mithilfe der Shell (Not UI) zu erstellen. Quelle wird twitterstream und sinkt als Datei. Hier ist, was ich tat Datei-Senke zu konfigurieren:Kann nicht gestreamte Daten zu versenken Datei mithilfe von Spring Wolke Datenfluss schreiben

dataflow:>stream create demo --definition "twitterstream --credentials | file --dir=/opt/datastream --mode=APPEND --filename=tweets.txt"

ich Daten von kafka Thema verbrauchen kann, aber nicht in der Lage über das Waschbecken Lage an zu schreiben, wird Datei nicht einmal erstellt. KEIN Fehlerprotokoll beim Bereitstellen des Streams. Schließlich werde ich es vom lokalen Dateisystem in HDFS ändern. Fehlt etwas?

PS: Ich habe versucht Standard-Datei-Senke (ohne Definition), die Standarddatei in/tmp/xd/output erstellen soll, ist auch nicht passiert.

Antwort

2

Auf der neuesten Version 1.0.0.RELEASE (GA), die folgende Stream-Definition funktioniert.

dataflow:>stream create demo --definition "twitterstream | file --directory=/someFolder --mode=APPEND --name=demo.txt"

Ein paar Dinge hinweisen:

1) Die twitterstream Quelle nicht --credentials als OOTB Eigenschaft nicht unterstützt. Siehe here.

2) Die file-Senke unterstützt --filename nicht als OOTB-Eigenschaft; Sie müssten stattdessen --name verwenden. Siehe here.

+0

Danke Sabbby, das hat gut funktioniert. – thedheeraz

+0

Können Sie bitte eine Demo auf hdfs Sink vorschlagen? Ich mache es nicht mit 'datenfluss:> stream erstellen demo --definition" twitterstream | hdfs --verzeichnis = hdfs: // ipaddress: 9000/benutzer/ergebnis --file-name = demo ". – thedheeraz

+1

Sie müssen verwenden '--fs-uri = hdfs: // ipadresse: 9000' Eigenschaft, um den 'NameNode'-URI zu übergeben und das Verzeichnis sollte der Ordner sein. In Ihrem Fall, --verzeichnis =/user/result'. Bitte folgen Sie die [docs] (http://docs.spring.io/spring-cloud-stream-app-starters/docs/1.0.0.RC1/reference/htmlsingle/#spring-cloud-stream-modules-hdfs-sink) . –

Verwandte Themen