Ich habe eine BilddateiSave Image-Datei auf HDFS mit Spark-
image = JavaSparkContext.binaryFiles("/path/to/image.jpg");
Ich mag dann verarbeiten, um die binären Informationen wie zu HDFS
Etwas mit Funken sparen:
image.saveAsBinaryFile("hdfs://cluster:port/path/to/image.jpg")
Ist die möglich, nicht "so einfach" zu sagen, nur möglich, dies zu tun? Wenn ja, wie würdest du das machen? Versuchen Sie, eine Eins-zu-Eins zu halten, wenn Sie die Erweiterung und den Typ behalten, also wenn ich die hdfs-Befehlszeile direkt herunterlade, wäre es immer noch eine brauchbare Bilddatei.
Ja, mein Bild ist ein Byte [] Ich habe ein wenig zu meiner ursprünglichen Frage hinzugefügt, behalten die Erweiterungen und Typ. – JRhino
Dies ist eine der Optionen, die ich mir angesehen habe, aber das erfordert Hadoop-Bibliotheken. Als eine Herausforderung versuche ich, nur Spark zu bekommen, um die Datei zu schreiben. Ich habe deine erste Methode versucht und hatte Erfolg (ohne direkten Download-fähig). – JRhino
Ich bin mir nicht sicher, was "require hadoop libraries" bedeutet. Tatsächlich importiert die Abhängigkeit von Spark-Core implizit die Abhängigkeit von hadoop-client. Wenn alles gut läuft, sollte es möglich sein, org.apache.hadoop.fs. {FileSystem, Path} ohne irgendwelche Änderungen in Ihrem Pom zu importieren. –