2017-02-20 4 views
0

Meine Frage geht über das Speichern von Daten aus Stream Analytics zu Blob-Speicher. In unserem System sammeln wir clictstream-Daten von vielen Websites über Event-Hubs. Dann machen wir eine kleine Gruppierung und Aggregation. Danach senden wir die Ergebnisse an unseren Blobspeicher.Benutzerdefinierte Muster für Stream-Analytik-Blob-Speicher

Das Problem ist, wir wollen unsere Ergebnisse zu vielen Blob-Containern nach ID für jede Website trennen. Jetzt können wir nur noch nach Datum und Uhrzeit Muster wie/logs/{date}/{time} tun, aber wir wollen/{websiteID}/{date}/{time}

Gibt es eine Möglichkeit, dies zu erreichen?

Antwort

0

Das Problem ist, wir wollen unsere Ergebnisse zu vielen Blob-Container nach ID für jede Website trennen. Jetzt können wir tun es nur nach Datum und Uhrzeit Muster wie/logs/{date}/{Zeit}, aber wir wollen/{WebsiteID}/{date}/{time}

Als dieser offiziellen Dokument stream-analytics-define-outputs erwähnt über Path Prefix Pattern von Blob Speicherausgabe:

Der Dateipfad zum Schreiben Ihrer Blobs innerhalb des angegebenen Containers. Im Pfad können Sie wählen, eine oder mehr Instanzen der folgenden zwei Variablen verwenden, um die Frequenz zu spezifizieren, die Blobs geschrieben werden: {date}, {time}

Beispiel 1: cluster1/logs/{date}/{time}

Beispiel 2: cluster1/logs/{date}

Basierend auf meinem Verständnis mehrere blob Ausgabeziele von einem einzelnen Stream-Analytics Job für jeden Ihrer schaffen könnte Websites und in Ihrer SQL-ähnlichen Abfrage la können Sie die Ereignisdaten filtern und Daten an die spezifische Ausgabe senden. Weitere Einzelheiten finden Sie unter .

+0

Wie kann ich das dynamisch machen? Ich möchte das nicht für jeden von ihnen tun: wähle * in Output1 von Input mit id = 1, wähle * in Output2 von Input wo id = 2 –

+0

Wie ich weiß, könntest du das nicht dynamisch über Azure Stream Analytics machen. Das Erstellen mehrerer Blob-Ausgabeziele oder mehrerer Jobs für jede Ihrer Websites ist eine einfachere Möglichkeit, Ihren Zweck zu erreichen. Oder Sie könnten Pete Ms Vorschlägen folgen, aber an dieser Stelle müssen Sie viel alleine arbeiten. –

1

Dies ist eine doppelte Frage:

Stream Analytics: Dynamic output path based on message payload

Azure Stream Analytics -> how much control over path prefix do I really have?

Die kurze Version der oben genannten Sie dies in Stream-Analytics nicht tun können. Wenn Sie zu viele Zielpfade für mehrere Senken haben, um durchführbar zu sein, ist es am besten, wenn Sie in eine einzige BLOB-Speichersenke streamen und die Ergebnisse mit etwas anderem als ASA verarbeiten. Azure-Funktionen, WebJobs oder ADF-Aufgaben sind einige mögliche Lösungen.