2017-12-07 3 views
0

Ich brauche etwas Hilfe, um eine Ausgabe für den Queue-Simulator zu geben, den ich baue. Alles ist fertig, aber ich kann keine numerische Methode finden, um herauszufinden, in welchem ​​Datenstück der Übergangszustand endet und der stationäre Zustand beginnt mit den Daten, die vom Simulator erzeugt werden.Wie berechnet man den Übergang zwischen einem transienten und einem stationären Zustand für eine MG1-Queue-Simulation?

Ich habe bereits versucht, die Varianz von T1 + T2 über die Zeit zu berechnen und die kleinste Quadrate Approximation für die Datenfunktion zu berechnen. Keiner von beiden scheint gut zu funktionieren.

Ich habe 2 Warteschlangen FCFS und 1 Server. Alle Clients betreten die erste Warteschlange, und nachdem sie vollständig bedient sind, betreten sie die zweite Warteschlange. Die erste Warteschlange hat eine höhere Priorität als die zweite. Die Informationen, die ich aus dem Prozess bekomme, sind: T1 und T2 (Zeit in der Warteschlange + Server für jede Warteschlange), N1 und N2 (Anzahl der Clients in jeder Warteschlange).

Gibt es dafür gut dokumentierte Methoden? Danke!

Antwort

0

Dieser wird als anfängliches vorübergehendes Problem bekannt und wurde zuerst von Conway zurück in 1963. Sie können in jedem modernen Simulationstextbuch — Suche Google, Amazon oder Barnes & Edler bekommen sehr gründliche Diskussionen über eine Vielzahl von Optionen identifiziert für "diskrete Ereignissimulation" und Sie werden viele Treffer bekommen. Alternativ gibt this paper einen vernünftigen Überblick über die Vielzahl von Methoden, die im dazwischenliegenden halben Jahrhundert vorgeschlagen wurden. Ich empfehle den MSER-Schätzer von Pres White, der Einfachheit mit analytischer Genauigkeit kombiniert.

Verwandte Themen