2016-04-28 9 views

Antwort

1

Sie können eine EXTERNAL Tabelle in Funken sehr gut erstellen, aber Sie haben HiveContext der anstelle von SqlContext kümmern:

scala> import org.apache.spark.sql.hive._ 
import org.apache.spark.sql.hive._ 

scala> val hc = new HiveContext(sc) 
hc: org.apache.spark.sql.hive.HiveContext = [email protected] 

scala> hc.sql("create external table blah (name string) location 'hdfs:///tmp/blah'") 
res0: org.apache.spark.sql.DataFrame = [result: string] 
Verwandte Themen