Ich habe eine CSV-Datei mit etwa 5000 Zeilen und 950 Spalten. Zuerst habe ich es zu Datenframe laden:Apache Spark: StackOverflowError beim Versuch, String-Spalten zu indexieren
val data = sqlContext.read
.format(csvFormat)
.option("header", "true")
.option("inferSchema", "true")
.load(file)
.cache()
Danach habe ich alle Spalten Zeichenfolge suchen
val featuresToIndex = data.schema
.filter(_.dataType == StringType)
.map(field => field.name)
und wollen, dass sie zu indizieren. Dafür habe ich erstellen Indexer für jede Saite Spalte
val stringIndexers = featuresToIndex.map(colName =>
new StringIndexer()
.setInputCol(colName)
.setOutputCol(colName + "Indexed"))
und erstellen Pipeline
val pipeline = new Pipeline().setStages(stringIndexers.toArray)
Aber wenn ich versuche, meinen ersten Datenrahmen mit dieser Pipeline
val indexedDf = pipeline.fit(data).transform(data)
ich Stackoverflow
erhalten zu transformieren16/07/05 16:55:12 INFO DAGScheduler: Job 4 finished: countByValue at StringIndexer.scala:86, took 7.882774 s
Exception in thread "main" java.lang.StackOverflowError
at scala.collection.immutable.Set$Set1.contains(Set.scala:84)
at scala.collection.immutable.Set$Set1.$plus(Set.scala:86)
at scala.collection.immutable.Set$Set1.$plus(Set.scala:81)
at scala.collection.mutable.SetBuilder.$plus$eq(SetBuilder.scala:22)
at scala.collection.mutable.SetBuilder.$plus$eq(SetBuilder.scala:20)
at scala.collection.generic.Growable$class.loop$1(Growable.scala:53)
at scala.collection.generic.Growable$class.$plus$plus$eq(Growable.scala:57)
at scala.collection.mutable.SetBuilder.$plus$plus$eq(SetBuilder.scala:20)
at scala.collection.TraversableLike$class.to(TraversableLike.scala:590)
at scala.collection.AbstractTraversable.to(Traversable.scala:104)
at scala.collection.TraversableOnce$class.toSet(TraversableOnce.scala:304)
at scala.collection.AbstractTraversable.toSet(Traversable.scala:104)
at org.apache.spark.sql.catalyst.trees.TreeNode.containsChild$lzycompute(TreeNode.scala:86)
at org.apache.spark.sql.catalyst.trees.TreeNode.containsChild(TreeNode.scala:86)
at org.apache.spark.sql.catalyst.trees.TreeNode$$anonfun$4.apply(TreeNode.scala:280)
at scala.collection.Iterator$$anon$11.next(Iterator.scala:409)
...
Was mache ich falsch? Danke.
Können Sie eine vollständige Ablaufverfolgung für Ausnahmen bereitstellen? – sebszyller
Welche Version von JDK verwenden Sie? –
Ich versuchte jdk 1.8.0_60 und 1.8.0_101. Hier vollständige Ablaufverfolgung http://pastebin.com/g9MsNtDp – Evilnef