Ich benutze HiveContext mit SparkSQL und ich versuche eine Verbindung zu einem entfernten Hive-Metastore herzustellen, die einzige Möglichkeit, den Hive-Metastore zu setzen, ist die Aufnahme der hive-site.xml auf dem Klassenpfad (oder Kopieren nach/etc/spark/conf /).Wie man sich in SparkSQL programmatisch mit einem Hive-Metastore verbindet?
Gibt es eine Möglichkeit, diesen Parameter programmgesteuert in einem Java-Code ohne Einbeziehung der hive-site.xml zu setzen? Wenn ja, wie ist die Spark-Konfiguration zu verwenden?
Im Fall einer Kerberized Fernclusterstruktur, was die zusätzlichen HiveContext Config setzen benötigt? Der obige Code funktioniert in diesem Fall nicht für mich und ich frage mich, ob Sie eine Lösung haben. Vielen Dank. –
Funktioniert immer noch nicht. Meine Einstellungen: ("hive.metastore.uris "," myValue ") (" login.user "," meinWert ") (" keytab.file "," myValue ") (" sun.security.krb5.debug "," false ") (" java.security.krb5.conf "," myValue ") (" java.library.path "," myValue ") (" hadoop.home.dir "," myValue ") (" hadoop.security.authentication ") "kerberos") ("hive.metastore.sasl.enabled", "true") ("hive.security.authorization.enabled", "false") ("hive.metastore.kerberos.principal", " myValue ") (" hive.metastore.execute.setugi "," true ") –
Sieht für mich mein lokaler Spark ist nicht einmal versucht, die Remote-Hive basierend auf dem, was ich im Log sehen –