Mit Spark verschmelzen und mit union
einen entsprechend großen Testdatensatz erstellen. Dies funktioniert OK:Kann ich Transformationen auf einen Spark-Datenrahmen in scala rekursiv anwenden?
val df = spark.read.json("/opt/spark/examples/src/main/resources/people.json") df.union(df).union(df).count()
Aber ich mag so etwas tun: val df = spark.read.json("/opt/spark/examples/src/main/resources/people.json") for (a <- 1 until 10){ df = df.union(df) }
, die mit Fehlern barfs <console>:27: error: reassignment to val df = df.union(df) ^
Ich weiß, dass diese Technik mit Python funktionieren würde, aber dies ist mein erstes Mal scala mit so I bin mir der Syntax nicht sicher.
Wie kann ich rekursiv Union einen Datenrahmen mit sich selbst n mal?