Ich habe etwas Code und möchte das L1-Cache-Miss/Treffer-Verhältnis optimieren. Gibt es eine Möglichkeit, den Cache-Treffer in der Speicherprofilerstellung in Python zu sehen?Wie sieht man L1 Cache Miss/Treffer in Python Profiling?
Es gibt Tools in C++ wie folgt aus: Measuring Cache Latencies
EDIT: Es kann kompilierte Variante von Python wie Cython/Numba (JIT)
Wenn Sie nach Software oder Tutorials suchen, ist Ihre Frage wahrscheinlich off-topic. Ich habe keine Software für Python gesehen, aber es wäre wirklich sehr interessant. – MSeifert
Ich bezweifle sehr, dass es all das nützlich wäre; eine interpretierte Sprache wie Python springt überall im Interpreter herum, und die "Hot Spots" auf der Ebene der L1-Cache-Daten sind mehr mit dem Interpreter-Design verbunden als mit jedem Code, den Sie tatsächlich geschrieben haben. Selbst wenn Sie etwas Einfluss darauf haben, würde der L1-Cache, den Sie kontrollieren, die Laufzeit nicht signifikant beeinflussen; Der Overhead des Interpreters, den Sie nicht kontrollieren, wäre wahrscheinlich eine Größenordnung höher. Das Problem mit dem L1-Cache ist sehr gering und Python ist alles andere als ein Low-Level. – ShadowRanger
Was ist mit Cython und Numba kompilierte Version? – Tensor