ich zu testen, ich versuche, wie lange ein Verarbeitungscodeblock nimmt HTTP-Anforderung, hier in meinem Kolben-Controller ist das Codebeispiel I verwendet:Python: Signifikanter Unterschied zwischen time.time() und time.clock()?
cancelled = []
t0 = time.time()
t1 = time.clock()
users = requests.get('https://www.example.com/users/')
for i in users.json():
user = requests.get('https://www.example.com/user/%s' % i['id]').json()
if user['status'] == 'Cancelled':
cancelled.append(user)
t2 = time.clock()
t3 = time.time()
print t2 - t1
print t3 - t0
Hier sind die Ausgänge:
2.712326
76.424875021
Die zweite Ausgabe von der Funktion time.time() stimmt mit den tatsächlichen Sekunden überein, die zum Anzeigen der Ergebnisse benötigt wurden. Daher bin ich mir nicht sicher, warum der Wert von time.clock() so klein ist?
Edit: Mein System ist OSX und Python 2.7, und meine Frage ist, warum wird time.clock() allgemein als "besser" angesehen, wenn time.time() die tatsächliche Zeit eines Benutzers Erfahrungen/Wartezeiten widerspiegelt?
Well time.clock() (vor allem, da dies Ihnen viel mehr Kontrolle über die Testumgebung erlaubt) ist die Prozessorzeit, wenn Sie auf Unix sind, und time.time () ist Sekunden seit Epoche – Jacobr365
Dupliate: http://stackoverflow.com/questions/85451/python-time-clock-vs-timetime-accuracy – Alex
Mögliches Duplikat von [Python - time.clock() vs. time.time() - Genauigkeit?] (http://stackoverflow.com/questions/85451/python-time-clock-vs-timetime-accuracy) –