Wenn Spark standardmäßig in der Befehlszeilenschnittstelle initialisiert wird, wird SparkContext als sc und SQLContext als sqlContext initialisiert.Initialisieren von HiveContext in Spark-CLI
Aber ich brauche HiveContext, da ich eine Funktion collect_list
verwende, die nicht von SparkContext unterstützt wird, aber von HiveContext unterstützt wird. Da HiveContext eine Superklasse von SparkContext ist, hätte es funktionieren sollen, ist es aber nicht.
WIE INIZEIERE ich HiveContext in Scala mit Spark CLI?
'Fehler: nicht gefunden: Wert collect_list' Dies ist, was die Konsole sagt, nachdem ich ** collect_list ** Funktion –
verwenden Sie korrekt importiert? importieren org.apache.spark.functions._ –
scala> importieren org.apache.spark.functions._: 31: Fehler: Objektfunktionen ist kein Mitglied des Pakets org.apache.spark import org.apache. spark.functions._ ^ '** WIE BEKANNTE ICH DIESES **? Bitte helfen Sie –