Ich brauche Hilfe, kann das Problem nicht sehen: Ich versorge einen Azure Data Lake Store mit einem Stream Analytics Jobs. Datei sind Tab getrennt und der Job läuft ohne Fehler.Azure Data Lake Analytics leere Ausgabedatei
ich einen Azure Daten See Analytics Service zu aggregieren Daten wie folgt eingesetzt:
@input =
EXTRACT [applicationname] string,
[clientip] string,
[continent] string,
[country] string,
[province] string,
[city] string,
[latitude] string,
[longitude] string
FROM "adl://mydatalakesotre.azuredatalakestore.net/instrumentationoutput/mystore/2017-10-22/{*}"
USING Extractors.Text(delimiter: '\t', skipFirstNRows: 1, silent: true);
OUTPUT @input
TO "output/PowerBI_output.tsv"
USING Outputters.Tsv(outputHeader: true);
ich den Weg nicht finden kann, um die Arbeit ... Ich habe andere 5 MB Eingabedaten, aber die Ausgabe bekam nur die Header, wie in der Abfrage angegeben ... Was fehlt mir.
Danke für die Hilfe.
Nelson, es würde helfen, einige weitere Informationen zur Verfügung zu stellen. Ich nehme an, dass die Dateien nicht leer sind und Ihr Pfad korrekt ist. Aber können Sie das erstellte Jobdiagramm überprüfen und sehen, was die Eingabedateiknoten im Diagramm zeigen? Werden irgendwelche/mehrere Dateien abgeholt und verarbeitet? Zeigen sie Daten, die aus der Extraktionsphase herausfließen? Außerdem haben Sie keine Fehler erwähnt, aber vielleicht möchten Sie das "silent: true" entfernen, damit Sie alle Fehler sehen können, die beim Extrahieren von Zeilen aufgetreten sind. – OmidA
Können Sie bitte einige Beispieldaten bereitstellen? der Punkt des 'silent' Parameters ist das Ignorieren von Fehlern. Vielleicht werden Sie, wenn Sie das ausschalten, einige Fehlerinformationen erhalten? – wBob