Ich versuche spark-submit
zu verwenden, um meinen Python-Code im Spark-Cluster auszuführen.Kann ich dem Python-Code Argumente hinzufügen, wenn ich einen Spark-Job einreiche?
Im Allgemeinen führen wir spark-submit
mit Python-Code wie unten.
# Run a Python application on a cluster
./bin/spark-submit \
--master spark://207.184.161.138:7077 \
my_python_code.py \
1000
Aber Ich will my_python_code.py
laufen durch mehrere Argumente zu übergeben Gibt es intelligente Art und Weise Argumente zu übergeben?