2009-05-25 21 views
0

Nehmen wir an, wir haben im Durchschnitt einen Seitenfehler alle 20.000.000 Anweisungen, ein normaler Befehl dauert 2 Nanosekunden und ein Seitenfehler bewirkt, dass der Befehl weitere 10 Millisekunden benötigt. Wie hoch ist die durchschnittliche Unterrichtszeit unter Berücksichtigung von Seitenfehlern?Durchschnittliche Befehlszeit

+0

scheinen wie eine Hausaufgabe? – Aziz

+0

Klingt wie Hausaufgaben für mich. – Noldorin

+0

Jemand musste diese Frage hier stellen? "Ja wirklich?" –

Antwort

2

20.000.000 Anweisungen, einer von ihnen wird

Deshalb Seitiges Fehler, die 20.000.000 Anweisungen werden

(2 nanoseconds * 20,000,000) + 10 milliseconds 

bekommen das Ergebnis (was die Gesamtzeit für 20 Millionen Anweisungen ist) nehmen und teilen sie durch die Anzahl der Anweisungen, um die Zeit pro Anweisung zu erhalten.

0

2,5 Nanosekunden? Ziemlich einfache Arithmetik, denke ich.

1

Wie hoch ist die durchschnittliche Befehlszeit unter Berücksichtigung von Seitenfehlern?

Die durchschnittliche Befehlszeit ist die Gesamtzeit, dividiert durch die Anzahl der Befehle.

Also: was ist die Gesamt Zeit für 20.000.000 Anweisungen?

0

Wenn 1 in 20.000.000 Anweisungen einen Seitenfehler verursacht dann haben Sie eine Seitenfehlerrate von:

Page Fault Rate = (1/20000000) 

Sie können dann Ihre durchschnittliche Zeit pro Befehl berechnen:

Average Time = (1 - Page Fault Rate) * 2 ns + (Page Fault Rate * 10 ms) 

kommt auf 2,5 ns/Anweisung

Verwandte Themen