Was sind die Schritte, um Spark mit HBase zu verbinden?Wie konfiguriert man HBase in Spark?
Ich habe die Master-Adressen für beide. Füge ich einfach die hbase-Adresse in den Spark-Klassenpfad ein?
Was sind die Schritte, um Spark mit HBase zu verbinden?Wie konfiguriert man HBase in Spark?
Ich habe die Master-Adressen für beide. Füge ich einfach die hbase-Adresse in den Spark-Klassenpfad ein?
Dieser Beitrag über Funken Mit HBase verbinden sollte hilfreich sein: http://www.vidyasource.com/blog/Programming/Scala/Java/Data/Hadoop/Analytics/2014/01/25/lighting-a-spark-with-hbase
Do I just add the hbase address into spark classpath?
Nr Eigentlich sollten Sie die hbase configuraion Dateien in der Funken Classpath setzen. Wenn nicht, sollten Sie sie in Ihren Codes setzen, wie zum Beispiel:
Configuration hConf = HBaseConfiguration.create(conf);
hConf.set("hbase.zookeeper.quorum", "PDHadoop1.corp.CompanyName.com,PDHadoop2.corp.CompanyName.com");
hConf.setInt("hbase.zookeeper.property.clientPort", 10000);
können Sie mir sagen, wie hbase Konfigurationsdateien auf Spark Classpath setzen? ist es so - Export SPARK_CLASSPATH =/Pfad/zu/hbase/conf? – RisJi
Ja. Aber es wird nur im Treiber verwendet. Sie können den obigen Beitrag lesen. Es las hbase-site.xml in den Codes. – zsxwing
danke! Aber jetzt bekomme ich einen Fehler: java.lang.NoSuchMethodError: org.apache.hadoop.net.NetUtils.getInputStream (Ljava/net/Socket;) Ljava/io/InputStream; \t bei org.apache.hadoop.hbase.ipc.HBaseClient $ Connection.setupIOstreams (HBaseClient.java:437) – RisJi