Ich versuche ~ 80.000 Bilder von einem Google Cloud Storage Bucket in einen anderen zu kopieren. Ich starte diese Operation von einem Mac mit Google Cloud SDK 180.0.1, die gsutil 4.28 enthält."cat urls.txt | gsutil -m cp -I gs: // Ziel-Bucket-Name /" bleibt nach dem Übertragen von ~ 10.000 Dateien konstant hängen
Die ~ URL jedes Bildes in eine Textdatei übertragen in werden, die ich ernähren cp gsutil wie so ...
$cat urls.txt | gsutil -m cp -I gs://target-bucket-name/
wobei urls.txt sieht aus wie ...
head -3 urls.txt
gs://source-bucket-name/1506567870546.jpg
gs://source-bucket-name/1506567930548.jpg
gs://source-bucket-name/1507853339446.jpg
Der Prozess bleibt konstant hängen, nachdem ~ 10.000 der Bilder übertragen wurden.
Ich habe $ HOME/.boto bearbeitet Kommentar-:
parallel_composite_upload_threshold = 0
Dies hat den Betrieb von hängen nicht verhindert.
Ich bin unsicher, was das Hängen verursacht.
Der zugrunde liegende Bedarf besteht darin, dass ein allgemeines Dienstprogramm N Elemente von einem Bucket in einen anderen kopiert. Ich brauche eine Arbeit, die es mir ermöglicht, diese Mission zu erfüllen.
UPDATE
die Option -m Entfernen scheint sich um den hängenden Problem zu arbeiten, aber die Dateiübertragung ist nun deutlich langsamer. Ich möchte in der Lage sein, das hängende Problem zu vermeiden, während ich immer noch die Geschwindigkeit erlange, die mit der Verwendung von Nebenläufigkeit verbunden ist, wenn dies möglich ist.
Danke. Ab gcloud 182 (gsutil 4.28) auf Macos scheint es zu funktionieren. –