Ich verwende die neueste HDP Sandbox (2.4.0.0-169)
. Ich habe unten Code in Funken Shell (Spark Version 1.6.0
)Problem mit Spark temporäre Tabelle
var orcData = sqlContext.sql("select code from sample_07");
var paymentDataCache = orcData.cache;
paymentDataCache.registerTempTable("paymentDataCache");
unter Befehle Gefolgt geschrieben thrift-Server zu starten und
1) export SPARK_HOME=/usr/hdp/2.4.0.0-169/spark/
2) sudo ./sbin/start-thriftserver.sh --master yarn-client --executor-memory 512m --hiveconf hive.server2.thrift.port=10015
3) ./bin/beeline
4) !connect jdbc:hive2://localhost:10015
Jetzt beeline Wenn ich zeigen Tabellen ausführen, ich erwarte, um zu sehen paymentDataCache temporäre Tabelle. Anbei finden Sie den Screenshot.
Ich habe auch versucht
sudo ./sbin/start-thriftserver.sh --master yarn-client --executor-memory 512m --hiveconf hive.server2.thrift.port=10015 --conf spark.sql.hive.thriftServer.singleSession=true
aber kein Glück mit dem thrift Server zu starten.
Wir haben den gleichen Prozess in HDP (2.3.2.0-2950 with Spark 1.4.1)
9-Knoten-Cluster versucht, aber wir sehen keine temporären Tabellen in Spark beeline.