Ich bin die Verarbeitung von Daten mit Funken- und Scala, und es in json
Funken 2.0.0 - JSON malformed Ausgang
df2.write.mode("overwrite").json("mydata")
Die Ausgabe sieht wie folgt zu speichern:
{"GPS_LAT":xx.xxxxx,"GPS_LONG":xx.xxxxx,"count":10063}
{"GPS_LAT":xx.xxxxx,"GPS_LONG":xx.xxxxx,"count":3142}
{"GPS_LAT":xx.xxxxx,"GPS_LONG":xx.xxxxx,"count":7766}
ich die Daten verwenden, um erstellen einer Visualisierung d3
, mit d3.json
mit:
d3.json("mydata.json", function(d){
console.log(d)
};
Mein Problem ist, dass d3.js
json
erwartet wie folgt formatiert werden:
[{"GPS_LAT":xx.xxxxx,"GPS_LONG":xx.xxxxx,"count":10063},
{"GPS_LAT":xx.xxxxx,"GPS_LONG":xx.xxxxx,"count":3142},
{"GPS_LAT":xx.xxxxx,"GPS_LONG":xx.xxxxx,"count":7766}]
Wer falsch ist? Spark oder d3
? Was kann ich tun, um diese Situation zu beheben, ohne manuell [,]
hinzufügen zu müssen?
Das habe ich mir auch gedacht - Wie kann es sein, dass ein System wie Spark eine kaputte Ausgabe produziert ?! –
Ich kann nicht sagen, wie ich dir gesagt habe, ich habe Spark nie benutzt ... lass uns warten, um die Meinung eines anderen zu sehen. –
Da Ausgabe ist nicht JSON aber [JSON Lines] (http://jsonlines.org/) und dieses __expected__ Ergebnis in Spark. –