2016-10-01 7 views
2

Wenn Spark im YARN-Cluster-Modus bereitgestellt wird, wie sollte ich die Spark-Überwachung REST API-Aufrufe http://spark.apache.org/docs/latest/monitoring.html?Spark Monitoring-REST-API im YARN-Cluster-Modus

Hat GARN eine API, die die REST Aufruf zum Beispiel nimmt (ich weiß schon, die app-ID)

http://localhost:4040/api/v1/applications/[app-id]/jobs

, es Proxies auf den richtigen Treiber-Port und gibt die JSON zurück zu mir ? Mit "ich" meine ich meinen Klienten.

Angenommen (oder schon vom Entwurf) Ich kann aus Sicherheitsgründen nicht direkt mit dem Treiber sprechen.

+0

hast du auf den Grund gehen von Dies? Ich habe derzeit das gleiche Problem - wie die History-Server-API ([host]: 18089:/api/v1/applications/[app-id/jobs) verwendet werden kann, um Jobinformationen zu erhalten, wenn die Spark-App gesendet und verwaltet wird durch Garn? Wenn Sie "Yarn" verwenden, stellt die History-Server-API Daten bereit, die sich auf die Spark-App beziehen, jedoch nicht für die Jobs, bis die App beendet wird. Im eigenständigen Spark-Modus stellt die History Server-API jedoch nahezu lebensnahe Daten bereit, die sich auf Jobs beziehen, wenn die App ausgeführt wird. – steswinbank

Antwort

0

pls haben einen Blick auf spark docs - REST API

Ja mit der neuesten api seine zur Verfügung.

von diesem Artikel It turns out there is a third surprisingly easy option which is not documented. Spark has a hidden REST API which handles application submission, status checking and cancellation.

Neben den Metriken in der Benutzeroberfläche sieht, sind sie als JSON ebenfalls zur Verfügung. Dies gibt Entwicklern eine einfache Möglichkeit, neue Visualisierungen und Überwachungstools für Spark zu erstellen. Der JSON ist sowohl für laufende Anwendungen als auch für den Verlaufsserver verfügbar. Die Endpunkte sind unter/api/v1 bereitgestellt. Für den History-Server wären sie beispielsweise typischerweise unter http: //: 18080/api/v1 und für eine laufende Anwendung unter http://localhost:4040/api/v1 zugänglich.

Diese sind die anderen Optionen zur Verfügung ..

  • Livius Job Server

Senden Spark jobs remotely to an Apache Spark cluster Linux using Livy

Weitere Optionen sind

Triggering spark jobs with REST

Verwandte Themen