2017-07-08 6 views
0

Ich habe HBase über drei Knoten installiert. Ich versuche, HBase über Funke mit Hilfe von unten Code zu laden.Zugriff auf HBase über API nicht möglich

from __future__ import print_function 

import sys 

from pyspark import SparkContext 
import json 
if __name__ == "__main__": 
    print ("*******************************") 
    sc = SparkContext(appName="HBaseOutputFormat") 
    host = sys.argv[1] 
    table = "hbase_test" 
    port = "2181" 

    conf = {"hbase.zookeeper.quorum": host, 
      "hbase.mapred.outputtable": table, 
      "hbase.zookeeper.property.clientPort":port, 
      "mapreduce.outputformat.class": "org.apache.hadoop.hbase.mapreduce.TableOutputFormat", 
      "mapreduce.job.output.key.class": "org.apache.hadoop.hbase.io.ImmutableBytesWritable", 
      "mapreduce.job.output.value.class": "org.apache.hadoop.io.Writable"} 
    keyConv = "org.apache.spark.examples.pythonconverters.StringToImmutableBytesWritableConverter" 
    valueConv = "org.apache.spark.examples.pythonconverters.StringListToPutConverter" 
    rdd = sc.parallelize([sys.argv[2:]]).map(lambda x: (x[0], x)) 
    print (rdd.collect()) 
    rdd.saveAsNewAPIHadoopDataset(
     conf=conf, 
     keyConverter=keyConv, 
     valueConverter=valueConv) 

    sc.stop() 

Ich Ausführung von Code wie:

spark-submit --driver-class-path /usr/iop/4.3.0.0-0000/hbase/lib/hbase-server.jar:/usr/iop/4.3.0.0-0000/hbase/lib/hbase-common.jar:/usr/iop/4.3.0.0-0000/hbase/lib/hbase-client.jar:/usr/iop/4.3.0.0-0000/hbase/lib/zookeeper.jar:/usr/iop/4.3.0.0-0000/hbase/lib/hbase-protocol.jar:/usr/iop/4.3.0.0-0000/spark2/examples/jars/scopt_2.11-3.3.0.jar:/home/tanveer/spark-examples_2.10-1.1.0.jar --conf spark.ui.port=5054 --master local[2] /data/usr/tanveer/from_home/spark/hbase_outputformat.py HBASE_MASTER_ip row1 f1 q1 value1 

aber der Job stucks und verläuft nicht. Unten ist die Momentaufnahme:

enter image description here

Gemäß einigen früheren Threads habe ich versucht, Hosts zu ändern/etc/localhost Linie zu kommentieren, aber es hat nicht funktioniert.

Anfordern Ihrer Hilfe.

Antwort

0

Auf weitere Debugging bezeichnet ich unten Blog-Post von Hortononworks Link für Best Practice:

https://community.hortonworks.com/articles/4091/hbase-client-application-best-practices.html

I hbase Konfigurationsdatei-Treiber-Klassenpfad und lief den Code und es funktionierte völlig in Ordnung hinzugefügt haben.

Modified Funken einreichen können betrachtet werden:

spark-submit --driver-class-path /usr/iop/4.3.0.0-0000/hbase/lib/hbase-server.jar:/usr/iop/4.3.0.0-0000/hbase/lib/hbase-common.jar:/usr/iop/4.3.0.0-0000/hbase/lib/hbase-client.jar:/usr/iop/4.3.0.0-0000/hbase/lib/zookeeper.jar:/usr/iop/4.3.0.0-0000/hbase/lib/hbase-protocol.jar:/usr/iop/4.3.0.0-0000/spark2/examples/jars/scopt_2.11-3.3.0.jar:/home/tanveer/spark-examples_2.10-1.1.0.jar:**/etc/hbase/conf** --conf spark.ui.port=5054 --master local[2] /data/usr/tanveer/from_home/spark/hbase_outputformat.py host row1 f1 q1 value1 
Verwandte Themen