Kubernetes unterstützt GPUs als eine experimentelle Funktion. Funktioniert es in Google Container-Engine? Muss ich eine spezielle Konfiguration haben, um es zu aktivieren? Ich möchte Workloads zum maschinellen Lernen ausführen können, aber Python 3 verwenden, das in CloudML nicht verfügbar ist.GPUs und Google Container-Engine
Antwort
GPUs auf Google Container-Engine sind ab sofort erhältlich in Alpha. Sign up form.
Beachten Sie, dass alpha cluster limitations gelten: Sie können nicht aktualisiert werden, und sie werden in 30 Tagen automatisch gelöscht.
Haftungsausschluss: Ich arbeite bei GCP.
Ich fürchte, das wird nicht aus der Box unterstützt. Beim Erstellen einer regulären Instanz in Google Compute Engine (GCE) können Sie GPU-Spezifikationen für Ihren Computer auswählen. Auf der anderen Seite sind diese Optionen beim Erstellen eines Clusters nicht verfügbar. Ich stelle mir vor, dass dies früher oder später verfügbar sein wird, aber nicht im Moment.
Als Alternative können Sie mehrere GCE-Instanzen erstellen und einen Cluster mit Tools wie kubeadm oder folgenden Guides wie Kubernetes die harte Weise bauen: https://github.com/kelseyhightower/kubernetes-the-hard-way
ich es nicht getestet habe, aber so lange wie GPU vm nur Maschinentypen sind, dass ich würde sagen, dass diese beiden Schritte tun sollte es möglich machen:
UPDATE: Hauptseite für benutzerdefinierte Gerätetypen: https://cloud.google.com/custom-machine-types/
1- einen GPU Individueller Maschinentyp erstellen: https://cloud.google.com/compute/docs/gpus/
Sie GPUs auf all nicht freigegebene-Kern-Typen oder benutzerdefinierten Maschinentyp, die Sie in der Lage sind, zu schaffen, in einer Zone
vordefinierten Maschine hinzufügen
2- Wenn Knoten erstellen, wählten Pool Ihre benutzerdefinierten Maschinentyp in dem Cluster oder Knoten: https://cloud.google.com/container-engine/docs/clusters/operations
--machine-type: Die Google Compute Engine Maschinenart (z.B. n1-standard-1) für Instanzen in diesem Containercluster zu verwenden. Wenn nicht angegeben, ist der Standard-Maschinentyp n1-standard-1
Ich glaube nicht, dass es möglich ist ... Ich kann nur benutzerdefinierte [instance-templates] erstellen (https://cloud.google.com/sdk/gcloud/reference/compute/instance-templates/create) aber nicht [Maschinentypen] (https://cloud.google.com/sdk/gcloud/reference/compute/machine-types/). Benutzerdefinierte Computeroptionen werden nur beim Erstellen einer VM-Instanz oder einer Vorlage angegeben. Beim Erstellen eines GKE-Clusters kann kein benutzerdefinierter Maschinentyp oder kein Knotenabbild bereitgestellt werden. Leider können wir in GKE keine Instanzvorlagen verwenden. https://cloud.google.com/sdk/gcloud/reference/container/clusters/create – Secathor
Theoretisch können Sie hier: https://cloud.google.com/custom-machine-types/ Und dann hier: https://cloud.google.com/compute/docs/gpus/add-gpus – danigosa
Ja, aber Sie können benutzerdefinierte Vorlagen auf GKE nicht verwenden. – Secathor
- 1. Cuda Mehrere GPUs: Alle GPUs das gleiche Modell?
- 2. mehrere Gpus und AdamOptimizer in Tensorflow
- 3. SLI für mehrere GPUs
- 4. Empfohlene GPUs für Tensorflow
- 5. Ausfallen mit GPUs
- 6. Verwenden mehrerer CUDA-GPUs
- 7. Verwenden von Zufallszahlen mit GPUs
- 8. OpenCL FFT-Lib für GPUs?
- 9. Wie behandeln GPUs wahlfreien Zugriff?
- 10. OpenACC Kompilieren mit AMD GPUs
- 11. Mehr Speicher in Nvidia GPUs?
- 12. CGDirectDisplayID, mehrere GPUs, veraltet CGDisplayIOServicePort und eindeutig identifizierende Anzeigen
- 13. tensorflow: Unterschied zwischen mehreren GPUs und verteilten Tensorflow
- 14. Warum verwenden Sie keine GPUs als CPU?
- 15. Trainiere zwei Modelle auf zwei GPUs
- 16. ML-Engine mit GPUs Worker-Fehlern
- 17. Ideen für grafikbasierte Projekte mit GPUs?
- 18. Wie Keras mit Theano ermöglichen mehrere GPUs
- 19. Skalierung der Leistung über mehrere GPUs hinweg
- 20. Wird TensorFlow standardmäßig mehrere GPUs verwenden?
- 21. Nicht-negative Matrix-Faktorisierung (NMF) mit GPUs
- 22. Nachteil von GPUs in peinlich parallelen
- 23. TF 1.0 auf GC ML mit GPUs Warteschlangen Bereitstellen immer
- 24. Kosten der Verzweigung auf Uniformen auf modernen GPUs
- 25. Ist es möglich, CUDA auf AMD GPUs auszuführen?
- 26. Haben einige GPUs oder Treiber einige der integrierten GSL-Funktionen?
- 27. Computer stürzt beim Training mit Tensorflow auf mehreren GPUs ab
- 28. Warum verwenden wir CPUs für Raytracing statt GPUs?
- 29. C++ AMP mit schnellen GPUs langsamer als CPU
- 30. Wie erhält man die aktuell verfügbaren GPUs im Tensorflow?
Hey, nur ein Nitpick. Besonders Leute, die mit Google Cloud-Technologien nicht vertraut sind, könnten GCE als "Google Container Engine" interpretieren (was auf den ersten Blick eine faire Annahme zu sein scheint), was Ihre Antwort verwirrend erscheinen lässt. Wenn Sie können, machen Sie bitte explizit, dass GCE bedeutet "compute" und nicht "container" – diogovk
Danke, gerade aktualisiert :) –
Ich denke, die neue Konvention ist GKE (Google Kontainer Engine) :) –