I die folgenden Parameter sind mit:TF 1.0 auf GC ML mit GPUs Warteschlangen Bereitstellen immer
- scale_tier = CUSTOM
- master_type = standard_gpu
- worker_count = 0
- ps_count = 0
- runtime_version = 1.0
Die Protokolle zeigen die Meldung Job <job_name> is queued.
ohne jemals die nächste Protokollnachricht zu drucken, sehe ich normalerweise (Waiting for job to be provisioned.
). Mein Job ist seit 30 Minuten so festgefahren, und ich habe es schon zweimal versucht.
Ich habe versucht, den gleichen Job ohne GPUs (d. H. Scale_tier = BASIC) zu übermitteln, und es ging in die Provisioning-Phase und schließlich fertig.
Was könnte passieren?
Es tut uns leid, Sie haben Probleme, können Sie bitte eine Projekt-ID und Job-ID bereitstellen, damit wir untersuchen können? Wenn Sie sie nicht öffentlich posten möchten, können Sie sie uns unter [email protected] per E-Mail senden. –
Ich habe das Projekt/die Job-ID per E-Mail geschickt, danke! – jwayne