Ich würde gerne wissen, wie Sie GPU mit C++ extrahieren. Die Informationen, an denen ich interessiert bin, sind jedoch nicht die Daten, die von der Klasse Win32_VideoController verfügbar sind (ahh .. die Murphy's Gesetze der Programmierung). Insbesondere interessieren mich die (Memory- und Shader-Uhren).Extrahieren von GPU-Informationen mit C++ (und hoffentlich WMI?)
Ich würde gerne wissen, wie man an diese Informationen kommt.
Ich möchte DirectX-Abfragen vermeiden, wenn möglich, aufgrund meines Mangels an Wissen (in der Tat, Null: P) darüber. Aber sollte das der einfachste Weg sein, dann bin ich bereit, einen Versuch zu machen. Alle Links/Tutorials würden sehr geschätzt werden.
Dank
Vielen Dank für Ihre Antwort! Ich werde es versuchen und ich werde Sie wissen lassen, ob es funktioniert hat. –
Alrighty, ich habe mir die MSDN angesehen und ich habe mich entschieden, es auszuprobieren. Ich schrieb ein einfaches int-Hauptprogramm, um einfach eine einfache Zeichenfolge auszudrucken. Allerdings habe ich jetzt das Include hinzugefügt: #include Wenn ich das hinzufügen, erhalte ich einen Compilerfehler: 1> c: \ Programme \ Microsoft sdks \ Windows \ v6.0a \ include \ setupapi.h (60) : Fehler C2143: Syntaxfehler: fehlende ';' vor '*' 1> c: \ Programme \ Microsoft sdks \ Windows \ v6.0a \ include \ setupapi.h (60): Fehler C4430: fehlender Typ specifier-int wird angenommen. Hinweis: C++ unterstützt nicht den Standard-Int 1> c: \ Programme \ Microsoft Sdks \ Windows \ v6.0a \ include \ setupapi.h –