Ich denke, GeForce TITAN ist großartig und ist weit verbreitet in Machine Learning (ML) verwendet. In ML genügt in den meisten Fällen die einfache Genauigkeit.
Weitere Informationen zur Leistung der GTX-Linie (derzeit GeForce 10) finden Sie in Wikipedia, here.
Andere Quellen im Internet unterstützen diesen Anspruch. Hier ist ein Zitat from doc-ok in 2013 (permalink).
Zum Vergleich wird ein „Entry-Level“ $ 700 Quadro 4000 ist deutlich langsamer als ein $ 530 High-End GeForce GTX 680, zumindest nach meinen Messungen mehr Vrui Anwendungen verwenden, und der nächste Performance-äquivalent zu einem GeForce GTX 680 konnte ich finden war eine Quadro 6000 für satte 3660 $.
Spezifisch für ML, einschließlich tiefer Lernen, gibt es eine Kaggle forum discussion dedicated to this subject (Dez 2014 permalink), die zwischen dem Quadro, GeForce über Vergleiche geht, und Serien Tesla:
Quadro GPUs sind nicht Für die wissenschaftliche Berechnung sind Tesla GPUs. Quadro Karten sind für die Beschleunigung von CAD entwickelt, so dass sie Ihnen nicht helfen trainieren neuronalen Netzen. Sie können wahrscheinlich nur für diesen Zweck verwendet werden gut, aber es ist eine Verschwendung von Geld.
Tesla-Karten sind für wissenschaftliche Berechnung, aber sie neigen dazu, hübsch zu sein teuer. Die gute Nachricht ist, dass viele der Funktionen, die von Tesla Karten über GeForce-Karten angeboten werden, nicht notwendig sind, um neuronale Netze zu trainieren.
Zum Beispiel haben Tesla-Karten in der Regel ECC-Speicher, der zu nett ist, aber keine Voraussetzung haben. Sie haben auch viel bessere Unterstützung für Doppelpräzisionsberechnungen, aber einzelne Präzision ist viel für Neuralnetzwerk-Training, und sie führen etwa das gleiche wie GeForce Karten dafür.
Eine nützliche Eigenschaft der Tesla-Karten ist, dass sie viel mehr RAM als vergleichbare GeForce-Karten haben. Mehr RAM ist immer willkommen wenn Sie größere Modelle trainieren möchten (oder RAM-intensive Berechnungen wie FFT-basierte Faltungen verwenden).
Wenn Sie zwischen Quadro und GeForce wählen, wählen Sie auf jeden Fall GeForce. Wenn Sie zwischen Tesla und GeForce wählen, wählen Sie GeForce, , es sei denn, Sie haben eine Menge Geld und könnten wirklich den zusätzlichen RAM verwenden.
HINWEIS: vorsichtig sein, was Plattform Sie arbeiten, und was die Standardgenauigkeit drin ist. Zum Beispiel, here in the CUDA forums (August 2016), ein Entwickler besitzt zwei Titan X (GeForce-Serie) und sieht in keinem seiner R- oder Python-Skripte einen Leistungszuwachs. Dies wird dadurch diagnostiziert, dass R auf die doppelte Genauigkeit voreingestellt wird und auf einer neuen GPU eine schlechtere Leistung aufweist als ihre CPU (ein Xeon-Prozessor). Tesla-GPUs werden als die beste Leistung für doppelte Genauigkeit zitiert. In diesem Fall erhöht die Umwandlung aller Zahlen in float32 die Leistung von 12.437s mit nvBLAS 0.324s mit gmatrix + float32s auf einem TITAN X (siehe ersten Benchmark). Zitat aus diesem Forum Diskussion:
Double-Präzision Leistung von Titan X ist ziemlich niedrig.
Dies ist 100% keine Meinung basiert. – Goddard
Diese Frage ist nicht meinungsbasiert, Tensorflow ist eine spezifische Anwendung und es gibt spezifische Hardwareunterschiede zwischen diesen Karten. Die Frage verweist sogar auf einen der Hauptunterschiede und fragt, ob die Programmierbibliothek diese Technologie verwendet. – gordatron