Ich benutze funke-2.0.2-bin-hadoop2.7 und richte eine Spark-Umgebung ein. Ich habe die meisten Schritte zum Installieren und Konfigurieren abgeschlossen, aber schließlich habe ich etwas anderes als die Online-Tutorials gefunden.Warum startet Spark-Shell den SQL-Kontext nicht?
Die Protokolle fehlen die Zeile:
SQL-Kontext als SqlContext.
Wenn ich Spark-Shell ausführen, startet es nur den Spark-Kontext. Warum wird der SQL-Kontext nicht gestartet?
Unter normalen Umständen sollten die folgenden zwei Codezeilen gleichzeitig ausgeführt werden?
Spark context available as sc
SQL context available as sqlContext.