2016-01-11 6 views
17

Gibt es einen spürbaren Unterschied in der TensorFlow-Leistung, wenn Quadro-GPUs gegen GeForce-GPUs verwendet werden?Auswahl zwischen GeForce- oder Quadro-GPUs zum maschinellen Lernen über TensorFlow

z.B. verwendet es Double-Precision-Operationen oder etwas anderes, was zu einem Abfall der GeForce-Karten führen würde?

Ich bin im Begriff, eine GPU für TensorFlow zu kaufen, und wollte wissen, ob eine GeForce in Ordnung wäre. Danke und schätze deine Hilfe

+5

Dies ist 100% keine Meinung basiert. – Goddard

+1

Diese Frage ist nicht meinungsbasiert, Tensorflow ist eine spezifische Anwendung und es gibt spezifische Hardwareunterschiede zwischen diesen Karten. Die Frage verweist sogar auf einen der Hauptunterschiede und fragt, ob die Programmierbibliothek diese Technologie verwendet. – gordatron

Antwort

25

Ich denke, GeForce TITAN ist großartig und ist weit verbreitet in Machine Learning (ML) verwendet. In ML genügt in den meisten Fällen die einfache Genauigkeit.

Weitere Informationen zur Leistung der GTX-Linie (derzeit GeForce 10) finden Sie in Wikipedia, here.

Andere Quellen im Internet unterstützen diesen Anspruch. Hier ist ein Zitat from doc-ok in 2013 (permalink).

Zum Vergleich wird ein „Entry-Level“ $ 700 Quadro 4000 ist deutlich langsamer als ein $ 530 High-End GeForce GTX 680, zumindest nach meinen Messungen mehr Vrui Anwendungen verwenden, und der nächste Performance-äquivalent zu einem GeForce GTX 680 konnte ich finden war eine Quadro 6000 für satte 3660 $.

Spezifisch für ML, einschließlich tiefer Lernen, gibt es eine Kaggle forum discussion dedicated to this subject (Dez 2014 permalink), die zwischen dem Quadro, GeForce über Vergleiche geht, und Serien Tesla:

Quadro GPUs sind nicht Für die wissenschaftliche Berechnung sind Tesla GPUs. Quadro Karten sind für die Beschleunigung von CAD entwickelt, so dass sie Ihnen nicht helfen trainieren neuronalen Netzen. Sie können wahrscheinlich nur für diesen Zweck verwendet werden gut, aber es ist eine Verschwendung von Geld.

Tesla-Karten sind für wissenschaftliche Berechnung, aber sie neigen dazu, hübsch zu sein teuer. Die gute Nachricht ist, dass viele der Funktionen, die von Tesla Karten über GeForce-Karten angeboten werden, nicht notwendig sind, um neuronale Netze zu trainieren.

Zum Beispiel haben Tesla-Karten in der Regel ECC-Speicher, der zu nett ist, aber keine Voraussetzung haben. Sie haben auch viel bessere Unterstützung für Doppelpräzisionsberechnungen, aber einzelne Präzision ist viel für Neuralnetzwerk-Training, und sie führen etwa das gleiche wie GeForce Karten dafür.

Eine nützliche Eigenschaft der Tesla-Karten ist, dass sie viel mehr RAM als vergleichbare GeForce-Karten haben. Mehr RAM ist immer willkommen wenn Sie größere Modelle trainieren möchten (oder RAM-intensive Berechnungen wie FFT-basierte Faltungen verwenden).

Wenn Sie zwischen Quadro und GeForce wählen, wählen Sie auf jeden Fall GeForce. Wenn Sie zwischen Tesla und GeForce wählen, wählen Sie GeForce, , es sei denn, Sie haben eine Menge Geld und könnten wirklich den zusätzlichen RAM verwenden.

HINWEIS: vorsichtig sein, was Plattform Sie arbeiten, und was die Standardgenauigkeit drin ist. Zum Beispiel, here in the CUDA forums (August 2016), ein Entwickler besitzt zwei Titan X (GeForce-Serie) und sieht in keinem seiner R- oder Python-Skripte einen Leistungszuwachs. Dies wird dadurch diagnostiziert, dass R auf die doppelte Genauigkeit voreingestellt wird und auf einer neuen GPU eine schlechtere Leistung aufweist als ihre CPU (ein Xeon-Prozessor). Tesla-GPUs werden als die beste Leistung für doppelte Genauigkeit zitiert. In diesem Fall erhöht die Umwandlung aller Zahlen in float32 die Leistung von 12.437s mit nvBLAS 0.324s mit gmatrix + float32s auf einem TITAN X (siehe ersten Benchmark). Zitat aus diesem Forum Diskussion:

Double-Präzision Leistung von Titan X ist ziemlich niedrig.

+4

"Quadro GPUs sind nicht für wissenschaftliche Berechnung, Tesla GPUs sind" +1 –

+0

ja, definitiv die Titan X oder die neue 1080 tli – fabrizioM

+4

aber die Quadros haben 24 GB GPU-Speicher, die für zukünftige Deep Learning-Modelle groß wäre. Warum erwähnt das niemand? oder ist es eigentlich so langsam, dass es sich überhaupt nicht lohnt –

Verwandte Themen