2013-02-27 9 views
7

Ich versuche, ein paar großen Eimer auf Amazon S3 zu synchronisieren.s3cmd sync returns „getötet“

Wenn ich meinen s3cmd sync --recursive Befehl ausführen bekomme ich eine Antwort sagen, „getötet“.

Wer weiß, was diese beziehen? Gibt es eine Begrenzung für die Anzahl der Dateien, die in S3 synchronisiert werden können?

Thx für Ihre Hilfe

Antwort

7

Nach etwa beim Lesen sieht aus wie der Programmspeicherverbrauch Probleme hat. Insbesondere kann dies dazu führen, dass der OOM killer (Speichermüll) den Prozess abbricht und verhindert, dass sich das System festsetzt. Ein kurzer Blick auf dmesg, nachdem der Prozess getötet wurde, wird in der Regel zeigen, ob dies der Fall ist oder nicht.

Mit dem im Verstand ich sicherstellen, würde Sie auf dem neuesten Release sind, die in den release notes gelöst Speicherverbrauch Probleme bemerkt zu werden.

+0

Direkt auf der Schaltfläche. Nach der Installation von s3cmd aus der neuesten Quelle wird der Prozess jedoch immer noch beendet. Ich muss vielleicht den Speicher auf meiner EC2-Instanz aufstocken oder einen der folgenden Schritte ausführen: http://StackOverflow.com/a/15266865/242426 – plainjimbo

+0

Ich war auch dabei, aber ich rannte in einen Vagrant. Mit dem Tipp, dass es ein Speicherproblem war, überprüfte ich meine vaganten Einstellungen und stellte fest, dass ich die vm mit nur 256 MB laufen ließ. Sobald ich das Problem gelöst hatte, war das Problem behoben. – SunSparc

+0

Dasselbe gilt für die Erhöhung des Speichers (in meinem Fall von 512 MB auf 2 GB). – Pavel

0

alte Frage, aber ich möchte sagen, dass, bevor Sie versuchen, mehr physischen Speicher hinzuzufügen oder vm Speicher zu erhöhen, versuchen Sie einfach mehr Swap hinzufügen.

Ich tat dies mit 4 Servern (ubuntu und CentOS) mit niedrigem RAM (700 MB insgesamt, nur 15 MB verfügbar) und es funktioniert jetzt gut.