Ich habe länger nach einer Lösung gesucht, um meinen kompletten Webspace, der bei All-Inkl (Partner-Link, wir können den Hoster wirklich empfehlen) liegt, auf mein lokales NAS, hier eine Synology, zu sichern.
Nachdem eine Recherche viele manuelle Lösungen brachte habe ich eine Website gefunden, auf der eine Vorlage zu finden war, die genau das macht, was ich wollte. Ich war nur immer von der Webspace-Seite an das Vorhaben herangegangen. Die Lösung hier liegt auf der Synology.
Im Aufgabenplaner der Synology, und sicher auch anderer NAS-Systeme, die auf einer Linux-Basis laufen, gibt es die Möglichkeit, ein manuelles bzw. hier Benutzerdefiniertes Script laufen zu lassen.
Auf meiner Synology ist das in der Systemsteuerung unter Aufgabenplaner zu finden.
Dort gibt es die Möglichkeit unter „Erstellen“, „Geplante Aufgabe“ die Option „Benutzerdefiniertes Skript“ aufzurufen.
Im folgenden Fenster vergibt man einen Namen und bestimmt, welcher Benutzer das Skript ausführen soll. In meinem Fall ist es der ausgegraute, also mein normaler Nutzer.
Auf der nächsten Seite, oben unter „Zeitplan“ zu finden, bestimmt man, wann das Skript ausgeführ werden soll. Ich mache das Wöchentlich, das hängt natürlich davon ab, wie oft sich der Inhalt ändert.
Auf der dritten Seite, den „Aufgabeneinstellungen“ gebe ich an, dass ich, wenn etwas schief geht, eine e-Mail bekomme. Und hier kommt das Skript rein.
Und hier das Skript zum kopieren:
wget -m ftp://FTP:PASSWORT@SERVER/* -P /volume1/backup/allinkl/ tar -zcvf /volume1/backup/allinkl/backup-$(date +%Y-%m-%d-%H-%M-%S).tar.gz /volume1/backup/allinkl/SERVER/
Jetzt müssen nur noch FTP durch den FTP-Benutzernamen und PASSWORT durch das FTP-Passwort des Hosters ersetzt werden. Und natürlich die Adresse des FTP-Servers muss angegeben werden. In diesem Fall bei SERVER.
Mit wget logge ich mich bei meinem FTP-Server ein und geben an, dass ich alles haben möchte. Das besagt das Sternchen hinter dem Server. Hier kann natürlich auch einfach nur ein Unterverzeichnis angegeben werden. Das legt dann alle Dateien in einen Ordner auf meiner Synology, den ich hier backup/allinkl genannt habe.
tar macht mir dann ein Archiv aus den heruntergeladenen Dateien und benennt es mit dem Datum und der Uhrzeit, damit mehrere Backups unterschieden werden können.
Somit liegt auf meinem NAS immer eine ungepackte aktuelle Version aller Dateien von Webspace, die beim nächsten Durchlauf überschrieben werden und zusätzlich ein bzw. mehrere gepackte Archive, die jeweil den Stand eines bestimmten Datums haben.
Jetzt könnte man das Skript noch erweitern, dass es hinterher den Download löscht, das benötige ich aber nicht. Speicherplatz ist hier genug.
Auch habe ich noch keine Erweiterung eingebaut, die alte Backups löscht. Das mache ich auch noch manuell, doch da könnte ich noch mal drüber nachdenken.
Schreibe einen Kommentar