Ich versuche, einen Datenrahmen zu speichern bucketBy mitFunken 2.0 bucketBy speichern
df.write.bucketBy("column").format("parquet").save()
Aber das Herstellen der Fehler: Exception in thread "main" org.apache.spark.sql.AnalysisException: 'retten' tut unterstützt Bucketing jetzt nicht;
Gibt es eine andere Möglichkeit, das Ergebnis von bucketBy zu speichern?
Kein Vorschlag? – syl
DataFrameWriter.bucketBy ist verfügbar, um die Ausgabe wie Hive zu becken. Weitere Informationen finden Sie im API-Dokument unter https://spark.apache.org/docs/2.0.0/api/java/org/apache/spark/sql/DataFrameWriter.html#bucketBy(int,%20java.lang.String,% 20scala.collection.Seq) – Salim