2016-12-07 4 views
0

Ich habe etwas Code und möchte das L1-Cache-Miss/Treffer-Verhältnis optimieren. Gibt es eine Möglichkeit, den Cache-Treffer in der Speicherprofilerstellung in Python zu sehen?Wie sieht man L1 Cache Miss/Treffer in Python Profiling?

Es gibt Tools in C++ wie folgt aus: Measuring Cache Latencies

EDIT: Es kann kompilierte Variante von Python wie Cython/Numba (JIT)

+0

Wenn Sie nach Software oder Tutorials suchen, ist Ihre Frage wahrscheinlich off-topic. Ich habe keine Software für Python gesehen, aber es wäre wirklich sehr interessant. – MSeifert

+1

Ich bezweifle sehr, dass es all das nützlich wäre; eine interpretierte Sprache wie Python springt überall im Interpreter herum, und die "Hot Spots" auf der Ebene der L1-Cache-Daten sind mehr mit dem Interpreter-Design verbunden als mit jedem Code, den Sie tatsächlich geschrieben haben. Selbst wenn Sie etwas Einfluss darauf haben, würde der L1-Cache, den Sie kontrollieren, die Laufzeit nicht signifikant beeinflussen; Der Overhead des Interpreters, den Sie nicht kontrollieren, wäre wahrscheinlich eine Größenordnung höher. Das Problem mit dem L1-Cache ist sehr gering und Python ist alles andere als ein Low-Level. – ShadowRanger

+0

Was ist mit Cython und Numba kompilierte Version? – Tensor

Antwort