2016-04-18 9 views
0

Ich konfiguriere HDFS als Deep Storage für Druid und versuche herauszufinden, wie Kerberos Keytab-Datei zur Authentifizierung übergeben werden kann.Hadoop - Kerberos Authentifizierung

Gibt es ein Java-System-Argument, um die Position der Chiffrierschlüsseldatei zu übergeben?

+0

Haben Sie überprüfen, ob Druide "issue", vor allem die beiden ** ** ohne Papiere env Variablen? https://github.com/druid-io/druid/issues/1588 –

+0

@Samson - Ja, aber das scheint nicht zu funktionieren! – jagamot

+0

Haben Sie den Debug-Modus von Kerberos sowohl auf JAAS- als auch auf Hadoop-Ebene aktiviert? vgl. '-Dsun.security.spnego.debug = true'und' export HADOOP_JAAS_DEBUG = true' wie in https://stevelogran.gitbooks.io/kerberos_and_hadoop/content/sections/secrets.html erklärt –

Antwort

0

Sollen wir die keytab Datei zu kinit von -t Parameter?

Zum Beispiel: kinit -t /path/to/keytab

+0

Das wäre 'kinit -kt/path/to/keytab principal @ REALM' mit optionalen Einstellungen zu "lifetime" und "renew lifetime" - zB Wenn Ihr Ticket für 8 Stunden * gültig ist (in der Regel auf 10 Stunden von der KDC-Konfiguration begrenzt) * und verlängerbare 2 Tage * (begrenzt auf 7d) *, dann könnten Sie ** cron ** ein 'kinit -kt blah blah' (Ticket Neuerstellung) jeden Tag um "0 0 * * *" und ein einfaches "kinit -R" (Ticketerneuerung) um "0 6,12,18 * * *" –

Verwandte Themen