Ich benutze meine GPU (Tesla K80), um neuronale Netzwerke mit Tensorflow zu trainieren, und etwas ist schiefgelaufen. Wenn ich nvidia-smi
eintippe, sehe ich, dass 11239MiB/11439MiB
des Speichers verwendet wird, aber keine Prozesse für die GPU aufgeführt sind. Normalerweise, wenn dies passiert, kann ich ps aux | grep python
eingeben und den Prozess finden, der die GPU verbraucht, aber diesmal kommt nichts.Wie finde ich heraus, was auf meiner (NVIDIA) GPU läuft?
Wie finde ich heraus, was auf meiner GPU läuft, und wie töte ich es?
Ich weiß nicht, ob das auf Ihrem Rechner möglich ist, aber auf unseren Servern, wenn nvidia-smi merkwürdig handelt, ist es Zeit für einen Neustart. Updates sind eine häufige Ursache für nvidia-smi, die seltsame Informationen zeigt, wie keine Grafikkarte oder keine Prozesse oder etwas Ähnliches. –
Neustart hat es behoben, aber ich hatte auf eine elegantere, weniger aufdringliche Lösung gehofft. –