2016-07-11 4 views
0

Ich versuche dies:Fehlende HiveContext Abhängigkeit

val hiveContext = new org.apache.spark.sql.hive.HiveContext(sc) 

Das ist mein build.sbt Datei:

name := "SPARK-SQL" 

version := "1.0" 

scalaVersion := "2.11.8" 


libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "2.0.0-preview" 


libraryDependencies += "org.apache.spark" % "spark-sql_2.11" % "2.0.0-preview" 

libraryDependencies += "org.apache.spark" % "spark-hive-thriftserver_2.10" % "1.6.2" 

Der Fehler Ich erhalte:

Error:scalac: missing or invalid dependency detected while loading class file 'HiveContext.class'.

+0

Sollte diese Klasse in enthalten sein können diese Bibliotheken? – Dilettant

+0

ja .... und es mag wie "libraryDependencies + =" org.apache.spark "%" spark-hive-thriftserver_2.10 "%" 1.6.2 "... aber weiß nicht, was schief geht – avy

+0

Hmmm. .. Bedeutet 'spark-hive-thriftserver_2.10' übersetzt" gegen Scala ** 2.10 ** und verlinkt nicht mit anderen Bibliotheken gegen Scala ** 2.11 ** "? –

Antwort

0

mit org.apache.spark.sql.hive.HiveContext umgehen Sie müssen die folgende Konfigurationskombination in Ihrer Datei build.sbt oder pom.xml haben und wegen der Kompilierung zu scala 2.10.6 wechseln atibility Ausgabe von Funken hive_2.10:

<dependency> 
    <groupId>org.apache.spark</groupId> 
    <artifactId>spark-core_2.10</artifactId> 
    <version>2.0.0</version> 
</dependency> 

<dependency> 
    <groupId>org.apache.spark</groupId> 
    <artifactId>spark-hive_2.10</artifactId> 
    <version>2.0.0</version> 
</dependency> 
0

Sie einfach Funken Sitzung mit hive Unterstützung bei den Funken 2.0 wie unten, so dass Sie einfach funken müssen SQL Dependency Beispiel

val spark = SparkSession 
    .builder() 
    .appName("Spark Hive Example") 
    .enableHiveSupport() 
Verwandte Themen