Ich versuche, eine benutzerdefinierte parallele Extraktor erstellen, aber ich habe keine Ahnung, wie es richtig geht. Ich habe eine große Dateien (mehr als 250 MB), wo Daten für jede Zeile in 4 Zeilen gespeichert werden. Eine Dateizeile speichert Daten für eine Spalte. Ist es möglich, parallel arbeitende Extraktoren für große Dateien zu erstellen? Ich fürchte, dass die Daten für eine Zeile nach der Dateiaufteilung unterschiedlich groß sind.Benutzerdefinierte parallele Extraktor - U-SQL
Beispiel:
...
Data for first row
Data for first row
Data for first row
Data for first row
Data for second row
Data for second row
Data for second row
Data for second row
...
Sorry für mein Englisch.
Sorry, ich kann mir das nicht vorstellen. Wie werden diese Daten sequentiell verarbeitet? Wenn ich Daten Zeile für Zeile aus der Datei parallel lese (Extraktoren liest immer Daten parallel, auch wenn AtomicFileProcessing auf true gesetzt ist, weiß ich nicht warum), werden sie in falscher Reihenfolge sein, weil Daten für eine Zeile in verschiedenen Dateibereichen sein können. Was sollte dieser Applikator tun? – mieszko91