ich meinen HPC-Cluster abzustimmen versuchen (ich benutze Sparklyr) und ich versuchen, einige wichtigen Spezifikationen von http://blog.cloudera.com/blog/2015/03/how-to-tune-your-apache-spark-jobs-part-2/ angegeben zu sammeln:Erhalt Anzahl von Knoten, die Anzahl der Codes und verfügbaren RAM für Tuning
zu hoffentlich machen Sie das alles ein wenig konkreter, hier ist ein bearbeiteter Beispiel für die Konfiguration einer Spark-App, um so viel Cluster wie möglich zu verwenden: Stellen Sie sich einen Cluster mit sechs Knoten mit NodeManager vor, jeder mit 16 Kernen und 64 GB Arbeitsspeicher .
nämlich:
- Anzahl der Knoten
- Anzahl der Kerne
- Plattenspeicher und RAM
Ich weiß, wie sinfo -n -l
zu verwenden, aber ich sehe zu viele Kerne und ich kann diese Information nicht leicht bekommen. Gibt es eine einfachere Möglichkeit, die Gesamtspezifikationen meines Clusters zu kennen?
Letztlich Ich versuche, einige vernünftige Parameter für --num-executors
--executor-cores
und --executor-memory
Warum der Downvote? –
OK entfernt. kannst du wieder upvoten ~ –
Nicht oben, aber entfernt :) (- die meisten deiner 168 anderen Qs erzwingen auch Tags in Titeln) – pnuts