Ich versuche mit flink eine CSV-Datei als Parkett zu schreiben. Ich verwende den folgenden Code und erhalte den Fehler.Flink in Parkett umwandeln Fehler
val parquetFormat = new HadoopOutputFormat[Void, String](new AvroParquetOutputFormat, job)
FileOutputFormat.setOutputPath(job, new Path(outputPath))
Ich bekomme den folgenden Build-Fehler. Kann mir bitte jemand helfen?
Typ nicht übereinstimmen; gefunden: parket.avro.AvroParquetOutputFormat erforderlich: org.apache.hadoop.mapreduce.OutputFormat [Leere, String] ingestion.scala/flink-scala/src/main/scala/com/sc/edl/flink linie 75 Scala Problem
Danke Fabian, tut mir leid, aber ich bin neu mit diesem, können Sie bitte die richtige Syntax oder was falsch ist – Niki
Ich erweiterte meine Antwort –