Ich habe einen Server, der 3 Websites hält und ich den folgenden Bash-Skript habe, das den s3cmd sync
Befehl täglich ausgeführt werden soll:Festlegen von Namen des Zielordners auf S3 mit s3cmd
#!/bin/sh
echo 'Started'
date +'%a %b %e %H:%M:%S %Z %Y'
s3cmd sync --recursive --preserve /etc/apache2 s3://mybucket
s3cmd sync --recursive --preserve /var/www/website1.com/public_html s3://mybucket
s3cmd sync --recursive --preserve /var/www/website2.com/public_html s3://mybucket
s3cmd sync --recursive --preserve /var/www/website3.com/public_html s3://mybucket
s3cmd sync --recursive --preserve /var/db_backups s3://mybucket
dpkg --get-selections > dpkg.list
s3cmd sync --recursive --preserve dpkg.list s3://mybucket
date +'%a %b %e %H:%M:%S %Z %Y'
echo 'Finished'
Das Problem ist aber, dass die Der Befehl s3cmd sync
erstellt den Ordner public_html
und fügt alle drei Websites in diesen Ordner ein.
Was ich tun möchte, ist die drei Websites in separaten Ordnern zu sichern. Wie kann ich dies mit den obigen Befehlen erreichen?
Fantastisch, das erledigt ist, den Trick speichern. Vielen Dank! – mickburkejnr