2017-07-07 4 views
0

Ich bin neu in EMR und versuchten Funkenjob als Schritt mit so etwas wie command-runner.jar spark-submit --deploy-mode cluster --class com.xx.xx.className s3n://mybuckets/spark-jobs.jar
jedoch zu starten, der Funken Job muss Anmeldeinformationen als Umgebungsvariablen, meine Frage ist, was der beste Weg ist, um die Anmeldeinformationen als Umgebungsvariablen an die Spark-Jobs zu übergeben.
Danke!Lauf Funke auf AWS EMR, indem Anmeldeinformationen

Antwort