2016-11-30 6 views
2

Heuschrecke-Konfiguration musste geändert werden, die aktuellen Arbeiter sind 130 Knoten. Ich habe die Implementierung als Yaml-Datei exportiert, die Datei bearbeitet und die Änderungen in der Heuschrecke übernommen.Kubernetes + Heuschrecke (Belastungstest)

Die Worker wurden neu gestartet und mit den neuen Konfigurationen neu initialisiert. Die laufen alle mit der neuen Umgebungsvariablen, die ich vorher geändert habe.

Das Problem ist, dass im Heuschrecken-Dashboard die Anzahl der Knoten verdoppelt bzw. die Arbeiter neu gestartet wurden und wenn sie aufgestanden sind, hat die Heuschrecken-UI sie als neuen Knoten hinzugefügt, aber nicht gelöscht inaktiv.

Dies ist die aktuelle Situation:

host-xxx:~/pula/distributed-load-testing-using-kubernetes/kubernetes-config # kubectl get pods -o wide|wc -l 
134 
host-xxx:~/pula/distributed-load-testing-using-kubernetes/kubernetes-config # kubectl get pods|grep Running|wc -l 
133 
host-xxx:~/pula/distributed-load-testing-using-kubernetes/kubernetes-config # 

Dashboard:

STATUS 
HATCHING 
85 users 
Edit 
**SLAVES 
260** 
RPS 
0 
FAILURES 
0% 
 Reset Stats 
StatisticsFailuresExceptions 
Type Name # requests # fails Median Average Min Max Content Size # reqs/sec 
Total 0 0 0 0 0 0 0 0 
Download request statistics CSV 
Download response time distribution CSV 

Was für eine schnelle Wieder Initialisierung des Johannis Master wäre die wirkliche Anzahl von Knoten zu bekommen?

Dank

+0

Die einzige Lösung, die ich bisher gefunden ist, um die Hülse zu löschen, so wird es neu erstellt werden, die die IP-Adresse des POD ändern. Verwenden Sie dann kubectl edit deploying locust und bearbeiten Sie die IP-Adresse des Master-Knotens, der alle Slave-Knoten neu synchronisiert – Maverik

Antwort

0

die einzige Möglichkeit, dem Armaturenbrett des Master-Knotens für jetzt zurückgesetzt kann, ist durch den Master und beginnen mit einem sauberen pod Umschuldung. Sie können dies entweder mit kubectl scale deployment/locust-master --replicas=0 tun und diese mit kubectl scale deployment/locust-master --replicas=1 skalieren. Dadurch werden jedoch alle Ergebnisse verworfen, die Sie bereits auf dem Master gesammelt haben.

Es ist mehr ein Locust-Problem als etwas, das k8s imo lösen kann.

0

Problem scheint dieser Knoten zu sein, sobald es versucht, zu registrieren und zu meistern, wenn nicht, würde nicht wiederholen. Weder Master macht eine ständige Kommunikation zu sehen ich

Löschen Sie den Master-Pod und warten Sie auf es kommen Backup. Jetzt wird es null Sklaven haben.

Löschen Sie dann Knoten-/Worker-Pods, damit sie sich erneut registrieren. So löschen Sie Hülsen mit Lables können Sie unter Befehl

# Delete pods and services with label name=myLabel. 
    kubectl delete pods,services -l name=myLabel 
Verwandte Themen