Ich brauche etwas Hilfe, um eine Ausgabe für den Queue-Simulator zu geben, den ich baue. Alles ist fertig, aber ich kann keine numerische Methode finden, um herauszufinden, in welchem Datenstück der Übergangszustand endet und der stationäre Zustand beginnt mit den Daten, die vom Simulator erzeugt werden.Wie berechnet man den Übergang zwischen einem transienten und einem stationären Zustand für eine MG1-Queue-Simulation?
Ich habe bereits versucht, die Varianz von T1 + T2 über die Zeit zu berechnen und die kleinste Quadrate Approximation für die Datenfunktion zu berechnen. Keiner von beiden scheint gut zu funktionieren.
Ich habe 2 Warteschlangen FCFS und 1 Server. Alle Clients betreten die erste Warteschlange, und nachdem sie vollständig bedient sind, betreten sie die zweite Warteschlange. Die erste Warteschlange hat eine höhere Priorität als die zweite. Die Informationen, die ich aus dem Prozess bekomme, sind: T1 und T2 (Zeit in der Warteschlange + Server für jede Warteschlange), N1 und N2 (Anzahl der Clients in jeder Warteschlange).
Gibt es dafür gut dokumentierte Methoden? Danke!