Ich führe meine Spark Streaming-Anwendung im Yarn-Cluster-Modus aus. Ich möchte die Anzahl der Executoren auf nur einen Knoten beschränken. Wie macht man das in Spark?Festlegen der Anzahl der Executoren für meine Spark Streaming-Anwendung
-1
A
Antwort
0
können Sie die Anzahl der Testamentsvollstrecker steuern, indem zwei Möglichkeiten:
Option 1:
direkt mit Funken Senden Befehl:
spark-submit -class ClassName --num-executors 1 .... other parameters
Option 2:
Innen Conf Flagge mit Spark-Befehl Senden:
spark-submit --class ClassName --conf "spark.executor.instances=1" .... other parameters.
Sie können m Erz detaillierte Informationen über das gleiche von Submitting Applications.
+0
Löst es Ihr Problem? – Hokam
Verwandte Themen
- 1. Spark Anzahl der Executoren, die Job verwendet
- 2. Anzahl der Executoren für eine Spark-Instanz erhöhen
- 3. Wie wird die Anzahl der Spark-Executoren festgelegt?
- 4. H2o Anzahl der Executoren funktioniert nicht
- 5. Die Anzahl der Executoren und Partitionen für einen Spark-Job in Cloudera Manager
- 6. YARN: Was ist der Unterschied zwischen Anzahl der Executoren und Executor-Kerne in Spark?
- 7. Spark-Streaming verwendet eine geringere Anzahl von Executoren
- 8. Apache Spark: Netzwerkfehler zwischen Executoren
- 9. Anzahl der sichtbaren Zeilen für Listenansicht festlegen
- 10. Anzahl der Partitionen von Spark Dataframe
- 11. So erhöhen Sie die Anzahl der Executoren im Spark Standalone-Modus, wenn spark.executor.instances und spark.cores.max nicht funktionieren
- 12. So verarbeiten Sie den DynamoDB-Stream in einer Spark-Streaminganwendung
- 13. Spark DAG Anzahl der Stufen
- 14. Spark-Mechanismus des Startens von Executoren
- 15. Wie benutzerdefinierte Log4j Eigenschaften für Executoren und Treiber in Spark
- 16. Festlegen der maximalen Anzahl von Spalten für ListView
- 17. Mehrere Executoren pro Arbeiter mit YARN und Spark?
- 18. Spark Parkett Datenrahmen Anzahl der Partitionen
- 19. Max Grenze für die Anzahl der RDDs in Spark
- 20. Anzahl der List-Werte in Spark - Datenframe
- 21. Spark in Scala - Einstellen der Anzahl der CPU
- 22. Anzahl der Shuffle-Partition in pyspark nicht festlegen
- 23. Wie können Objekte in Spark-Scala über Executoren verteilt werden?
- 24. Festlegen der Umgebung für System.in
- 25. Hinzufügen zusätzlichen Klassenpfad zu Executoren im Spark-Client-Modus
- 26. Wie werden Jobs in Spark-Streaming Executoren zugewiesen?
- 27. Festlegen der Dateinameneigenschaft für TOpenFileDialog
- 28. Wie die Anzahl der Partitionen und die Anzahl der gleichzeitigen Aufgaben in Spark berechnet
- 29. Spark - Wie viele Executoren und Kerne sind meinem Spark Job zugeordnet
- 30. Anzahl der Aufgaben, die nicht gleich Anzahl der Partitionen in Spark-
Ihre Frage ist ein wenig verwirrend. Möchten Sie die Anzahl der Executoren oder die Ausführung aller Executoren auf nur einem Knoten steuern? – Hokam
Nein Ich möchte nur einen Executor und einen Treiber haben – Luckylukee