Heuschrecke-Konfiguration musste geändert werden, die aktuellen Arbeiter sind 130 Knoten. Ich habe die Implementierung als Yaml-Datei exportiert, die Datei bearbeitet und die Änderungen in der Heuschrecke übernommen.Kubernetes + Heuschrecke (Belastungstest)
Die Worker wurden neu gestartet und mit den neuen Konfigurationen neu initialisiert. Die laufen alle mit der neuen Umgebungsvariablen, die ich vorher geändert habe.
Das Problem ist, dass im Heuschrecken-Dashboard die Anzahl der Knoten verdoppelt bzw. die Arbeiter neu gestartet wurden und wenn sie aufgestanden sind, hat die Heuschrecken-UI sie als neuen Knoten hinzugefügt, aber nicht gelöscht inaktiv.
Dies ist die aktuelle Situation:
host-xxx:~/pula/distributed-load-testing-using-kubernetes/kubernetes-config # kubectl get pods -o wide|wc -l
134
host-xxx:~/pula/distributed-load-testing-using-kubernetes/kubernetes-config # kubectl get pods|grep Running|wc -l
133
host-xxx:~/pula/distributed-load-testing-using-kubernetes/kubernetes-config #
Dashboard:
STATUS
HATCHING
85 users
Edit
**SLAVES
260**
RPS
0
FAILURES
0%
 Reset Stats
StatisticsFailuresExceptions
Type Name # requests # fails Median Average Min Max Content Size # reqs/sec
Total 0 0 0 0 0 0 0 0
Download request statistics CSV
Download response time distribution CSV
Was für eine schnelle Wieder Initialisierung des Johannis Master wäre die wirkliche Anzahl von Knoten zu bekommen?
Dank
Die einzige Lösung, die ich bisher gefunden ist, um die Hülse zu löschen, so wird es neu erstellt werden, die die IP-Adresse des POD ändern. Verwenden Sie dann kubectl edit deploying locust und bearbeiten Sie die IP-Adresse des Master-Knotens, der alle Slave-Knoten neu synchronisiert – Maverik