2016-09-25 3 views
4

Mein Funke r 1.6-Code nicht in spark2.0 funktioniert, habe ich die notwendigen Änderungen wie sparkr.session() Schaffung statt sparkr.init() und nicht vorbei SqlContext Parameter etc ...sparkr 2.0 read.df wirft Pfad existiert nicht Fehler

In der Code unten ich eine Daten aus paar Ordner in Datenrahmen

read.df in spark1.6 bin Laden, die

sales <- read.df(sqlContext, path= "gs://dev.appspot.com/myData/2014/20*,gs://dev.appspot.com/myData/2015/20*", source = "com.databricks.spark.csv", delimiter 
="\t") 

arbeitet read.df in spark2.0, die nicht

sales <- read.df("gs://dev.appspot.com/myData/2014/20*,gs://dev.appspot.c 
om/myData/2015/20*", source = "com.databricks.spark.csv", delimiter="\t") 

die obige Zeile wirft folgenden Fehler funktionieren:

6/09/25 19:28:52 ERROR org.apache.spark.api.r.RBackendHandler: loadDF on org.apache.spark.sql.api.r.SQLUtils faile d Error in invokeJava(isStatic = TRUE, className, methodName, ...) : org.apache.spark.sql.AnalysisException: **Path does not exist: gs://dev.appspot.com/myData/2014/ 20*,gs://dev.appspot.com/myData/2015/20***; 
     at org.apache.spark.sql.execution.datasources.DataSource$$anonfun$12.apply(DataSource.scala:357) 
     at org.apache.spark.sql.execution.datasources.DataSource$$anonfun$12.apply(DataSource.scala:350) 
     at scala.collection.TraversableLike$$anonfun$flatMap$1.apply(TraversableLike.scala:241) 
     at scala.collection.TraversableLike$$anonfun$flatMap$1.apply(TraversableLike.scala:241) 
     at scala.collection.immutable.List.foreach(List.scala:381) 
     at scala.collection.TraversableLike$class.flatMap(TraversableLike.scala:241) 
     at scala.collection.immutable.List.flatMap(List.scala:344) 
     at org.apache.spark.sql.execution.datasources.DataSource.resolveRelation(DataSource.scala:350) 
     at org.apache.spark.sql.DataFrameReader.load(DataFrameReader.scala:149) 
     at org.apache.spark.sql.DataFrameReader.load(DataFrameReader.scala:122 Calls: read.df -> dispatchFunc -> f -> callJStatic -> invokeJava Execution halted 16/09/25 19:28:53 INFO org.spark_project.jetty.server.ServerConnector: Stopped [email protected]{HTTP/1.1}{0 .0.0.0:4040} 

Antwort

1

spark2.0 read.df versagen beim Lesen von Dateien, die hat "" (Komma) im Dateinamen.

Datendateien, die ich erzeugen ein Komma in die Dateinamen haben, so etwas wie diese 201448-0,004 201448-0,005 201448-0,006

Nach Stunden schmerzhaft bei der Fehlersuche durch die Ausgabe, schließlich begann er die Daten lesen wenn ich "," aus Dateinamen entfernte.

Verwandte Themen