2016-08-24 7 views
0

1) ich eine SQL-Datei erstellt haben, zu schaffen, in dem wir die Daten aus zwei verschiedenen hive Tabelle sammeln und Einfügen in einen einzigen Hive Tisch,HiveException: Fehler Funken Client

2) wir Aufruf dieser SQL-Datei Shell-Skript

3) Probe Funken Rahmen:

SET hive.execution.engine=spark; 
SET spark.master=yarn-cluster; 
SET spark.app.name="ABC_${hiveconf:PRC_DT}_${hiveconf:JOB_ID}"; 
--SET spark.driver.memory=8g; 
--SET spark.executor.memory=8g; 
SET hive.exec.dynamic.partition.mode = nonstrict; 
SET hive.stats.fetch.column.stats=true; 
SET hive.optimize.index.filter=true; 
Set hive.map.aggr=true; 
Set hive.exec.parallel=true;SET spark.executor.cores=5; 
SET hive.prewarm.enabled=true; 
SET hive.spark.client.future.timeout=900; 
SET hive.spark.client.server.connect.timeout=100000; 

4) Probe Hive Abfrage:

insert OVERWRITE table ABC (a,b,c) select * from XYZ 
from ${hiveconf:SCHEMA_NAME}.${hiveconf:TABLE_NAME} 
where JOB_ID = '${hiveconf:JOB_ID}' 
Beispielskript 210

5):

hive -f $PARENTDIR/sql/test.sql --hiveconf SCHEMA_NAME=ABC --hiveconf TABLE_NAME=AB1 --hiveconf PRC_DT=${PRC_DT} --hiveconf JOB_ID=${JOB_ID} 
hive -f $PARENTDIR/sql/test.sql --hiveconf SCHEMA_NAME=ABC --hiveconf TABLE_NAME=AB2 --hiveconf PRC_DT=${PRC_DT} --hiveconf JOB_ID=${JOB_ID} 

Error: 
2016-08-24 17:30:05,651 WARN [main] mapreduce.TableMapReduceUtil: The hbase-prefix-tree module jar containing PrefixTreeCodec is not present. Continuing without it. 

Logging initialized using configuration in jar:file:/opt/cloudera/parcels/CDH-5.7.2-1.cdh5.7.2.p0.18/jars/hive-common-1.1.0-cdh5.7.2.jar!/hive-log4j.properties 
FAILED: SemanticException Failed to get a spark session: org.apache.hadoop.hive.ql.metadata.HiveException: Failed to create spark client. 
+0

den Befehl setzen und irren Nachricht in '' 'Code block''', wird es Ihnen helfen, Ihre Frage leichter zu verstehen :) –

+0

@ Sel-Fisch neu zu diesem lernen die Tricks –

Antwort

0

Es ist erroring weil Sie nicht eine ApplicationMaster vor dem Ablaufen zugewiesen bekommen. Erhöhen Sie die folgenden Parameter (Standardeinstellung 90000ms, man muss es 100000ms oben eingestellt):

set hive.spark.client.server.connect.timeout=300000ms;