in Sprudel shell Arbeiter Speicher über 2 GB erhöhen, wenn der Lauf sparkling-shell
:kann nicht
bin/sparkling-shell
Die folgenden Fehler auftreten:
org.apache.spark.SparkException: Asked to launch cluster with 2048 MB RAM/worker but requested 20480 MB/worker
Wir folgendes Set in spark-env.sh
:
export SPARK_WORKER_MEMORY=108GB
export SPARK_WORKER_INSTANCES=4
Und das folgende in spark-defaults.conf
:
spark.executor.memory 20g
spark.driver.memory 8g
Die einzige Art, wie wir die Schale starten bekommen kann, ist der Arbeiter-Speicher auf 2 GB zurück:
spark.executor.memory 2g
Aber das ist einfach Art und Weise nicht ausreichend für unsere Arbeit ausgeführt wird. Jeder hat eine Problemumgehung für dieses Problem gefunden?
RE: Abstimmung zu schließen. Sie werden wahrscheinlich nicht erkennen, dass die glitzernde Wasserschale ein * Programmierungsartefakt im Zusammenhang mit Spark war. Diese Frage gehört nicht - sagen wir - in 'superuser'. Beachten Sie, dass alle Apache-Funke-bezogenen Fragen * explizit * als * hier * erwähnt wurden - laut der Funken-Mailing-Liste. – javadba