Diese sind Avros mit der Confluent-Plattform serialisiert.Wie lese ich binär serialisierte Avro (Confluent Platform) von Kafka mit Spark Streaming
Ich mag würde ein funktionierendes Beispiel wie folgt finden:
aber für Spark Structured Streaming.
kafka
.select("value")
.map { row =>
// this gives me test == testRehydrated
val test = Foo("bar")
val testBytes = AvroWriter[Foo].toBytes(test)
val testRehydrated = AvroReader[Foo].fromBytes(testBytes)
// this yields mangled Foo data
val bytes = row.getAs[Array[Byte]]("value")
val rehydrated = AvroReader[Foo].fromBytes(bytes)
Haben Sie eine funktionierende Lösung gefunden? – aasthetic
@aasthetic siehe unten – zzztimbo