2017-11-14 2 views
0

Ich benutze meine GPU (Tesla K80), um neuronale Netzwerke mit Tensorflow zu trainieren, und etwas ist schiefgelaufen. Wenn ich nvidia-smi eintippe, sehe ich, dass 11239MiB/11439MiB des Speichers verwendet wird, aber keine Prozesse für die GPU aufgeführt sind. Normalerweise, wenn dies passiert, kann ich ps aux | grep python eingeben und den Prozess finden, der die GPU verbraucht, aber diesmal kommt nichts.Wie finde ich heraus, was auf meiner (NVIDIA) GPU läuft?

Wie finde ich heraus, was auf meiner GPU läuft, und wie töte ich es?

+1

Ich weiß nicht, ob das auf Ihrem Rechner möglich ist, aber auf unseren Servern, wenn nvidia-smi merkwürdig handelt, ist es Zeit für einen Neustart. Updates sind eine häufige Ursache für nvidia-smi, die seltsame Informationen zeigt, wie keine Grafikkarte oder keine Prozesse oder etwas Ähnliches. –

+0

Neustart hat es behoben, aber ich hatte auf eine elegantere, weniger aufdringliche Lösung gehofft. –

Antwort

1

Sehen Sie sich alle Prozesse an, die vom Benutzer ausgeführt werden, der die GPU verwendet hat. Töte alle Prozesse, die die GPU benutzt haben.

ps -ef | grep <username> 

Sie könnten auch versuchen,

sudo nvidia-smi --gpu-reset 

Wenn nichts Neustart dann funktioniert betrachten.

Verwandte Themen