2017-02-21 2 views
2

I die folgenden Parameter sind mit:TF 1.0 auf GC ML mit GPUs Warteschlangen Bereitstellen immer

  • scale_tier = CUSTOM
  • master_type = standard_gpu
  • worker_count = 0
  • ps_count = 0
  • runtime_version = 1.0

Die Protokolle zeigen die Meldung Job <job_name> is queued. ohne jemals die nächste Protokollnachricht zu drucken, sehe ich normalerweise (Waiting for job to be provisioned.). Mein Job ist seit 30 Minuten so festgefahren, und ich habe es schon zweimal versucht.

Ich habe versucht, den gleichen Job ohne GPUs (d. H. Scale_tier = BASIC) zu übermitteln, und es ging in die Provisioning-Phase und schließlich fertig.

Was könnte passieren?

+1

Es tut uns leid, Sie haben Probleme, können Sie bitte eine Projekt-ID und Job-ID bereitstellen, damit wir untersuchen können? Wenn Sie sie nicht öffentlich posten möchten, können Sie sie uns unter [email protected] per E-Mail senden. –

+0

Ich habe das Projekt/die Job-ID per E-Mail geschickt, danke! – jwayne

Antwort

3

Es stellt sich heraus, dass dieser Fehler war, weil wir keine Quote für GPUs hatten. Wenn ich einige Jobs, die GPU verwenden, abgebrochen habe, ging der Job in der Warteschlange in die Bereitstellungsphase über.

Danke!