Re: Backup über Internet

From: Martin Sugioarto <martin(at)sugioarto.com>
Date: Thu, 8 Mar 2012 18:07:15 +0100

Am Wed, 7 Mar 2012 22:14:00 +0100 (CET)
schrieb Oliver Fromme <olli(at)lurza.secnetix.de>:

> Zusammengefasst: Ich sichere auf Dateiebene. Beim Sichern
> erfolgt ein Abgleich der vorhandenen Dateien und der Dateien
> vom Vortag ( = Differenz). Geänderte Dateien werden zum
> Backup-Server übertragen, unveränderte Dateien werden vom
> Vortag verlinkt.

Dann hältst Du mehrere Verzeichnisse mit Backups der Einzeldateien
einfach unarchiviert auf dem Server?

> Dadurch ist jedes Backup autark, d.h. es kann unabhängig von
> allen vorhergehenden Backups verwendet werden. Ich kann
> jedes beliebige Backup löschen (rm -rf), ohne dass ein
> anderes Backup davon betroffen wird. Dennoch belegt jede
> unveränderte Datei nur einmal Platz auf dem Datenträger.

Das Verfahren klingt für einfache Backups sinnvoll. Ich habe hier aber
mehrere Sorgen.

Ich habe 2 konsistente Vollsicherungen und inkrementelle Backups, die
ebenfalls komplett konsistent sind. Die Wahrscheinlichkeit, dass ich das
Backup innerhalb von 1h nicht vollständig und konsistent (also ziemlich
systemnah konsistent!) restaurieren kann, ist sehr klein. Dump hat mich
hier noch nie im Stich gelassen. Ich kann komplett das ganze System
verlieren. Ich kriege es innerhalb von kurzer Zeit exakt so restauriert
wie es zum Zeitpunkt der Sicherung war. Da muss ich mir keine Gedanken
drüber machen.

Hoffentlich kriegst Du mit Deinem Verfahren auch alle Eigenheiten des
Systems restauriert (Sparse-Files, Sockets, Hardlinks, Datei-Flags,
etc...). Ich mache auch Gebrauch vom nodump-Flag.
 
> Der Begriff "Backup-Set" passt hier nicht. Das ist wieder
> dump-Nomenklatur.

Ich glaube, ich kann mir jetzt vorstellen was Du meinst (s.o.). Ich bin
mir nicht sicher, ob ich dateiweise Backup machen will. Ein Archiv ist
eine Datei und bei dump bin ich da ziemlich ruhig. Ein komplettes
System-Restore kann ich jederzeit ohne größere Sorgen durchführen.
Naja, bis auf den Boot-Mechanismus.

> > Eigentlich ist "differentiell" (mit Level 0 und 1) die normale
> > Definition, die man aus der Uni und der IT-Landschaft kennt.
>
> Nein, wenn Du mit "Levels" (im Sinne von dump) arbeitest,
> dann ist das eigentlich immer inkrementell.

Der Ausdruck "differentiell" ist bei Deinem Verfahren falsch.
Differentielles Backup ist älter und eine Unterkonzept von
inkrementellen Backup.

> Naja, wenn man den entsprechenden Absatz durchliest, sollte
> sich von alleine eine gewisse Skepsis einstellen, da der
> Vorschlag offenbar auf einer Untersuchung von 1991 basiert.
> Ist also nicht so ganz taufrisch. Die meisten aktuellen
> Backup-Lösungen existierten damals noch gar nicht.

Ist eine Aussage alt, heißt es nicht, dass sie falsch ist. Man sollte
das Kapitel vielleicht erweitern und erneuern.
 
> Wie dem auch sei, ich würde jetzt wegen des Handbooks keine
> Panik schieben. Da ohnehin immer mehr auf ZFS umsteigen
> (irgendwann wird das eh der Default sein), erledigt sich
> das von selbst.

Noch bin ich mir da nicht so sicher. Wegen ZFS hatte ich die größte
Restore-Aktion überhaupt, bis jetzt, als es mir den kompletten zpool
zerlegt hat. Ich habe da immer noch schlimme Erinnerungen dran, von
denen ich mich bis jetzt nicht erholt habe. Aber ich will nicht
bestreiten, dass ich ZFS mal wieder ausprobiere.

Vielleicht sollten sie mal eine harte Speicherallokationssperre
einbauen, die mich beruhigt. So auf "wird schon gutgehen" sich Speicher
zu holen wie ZFS das macht, macht mir Sorgen.

> Es gibt übrigens im FreeBSD-Handbuch auch einen Abschnitt,
> der das Backup auf Floppies beschreibt. Soviel zum Thema
> "historisch". ;-)

Anscheinend wird das Handbuch vernachlässigt. Ich habe aber keine
anderen Vergleiche zwischen Backup-Tools gefunden, die neuer sind.
 
> dump(8) feiert bald seinen 40. Geburtstag. Es stammt halt
> aus einer Zeit, als Backups ausschließlich auf sequentiellen
> Medien (Bänder) gemacht wurden. Daran ist dump gut angepasst,
> auch das Level-System passt da gut. Ich habe selbst mit
> dump(8) unter SunOS 4 auf QIC-150 geschrieben. Das ist ewig
> lange her. Aber die Zeiten haben sich geändert. Heutzutage
> werden -- vor allem im privaten Bereich -- kaum noch Bänder
> eingesetzt, was konsequenterweise zu einem Paradigmenwechsel
> bei den Backupstrategien führt, um die Medien so effizient
> wie möglich zu nutzen.

Also das gestreamte Backup ist ziemlich effizient. Ich habe schon
öfters einzelne Dateien, Verzeichnisse und alte Pakete aus dem
gzip-komprimierten und verschlüsselten Stream remote herausgefischt. Das
geht ziemlich gut.

Seitdem ich auch von ZFS auf UFS gewechselt habe, habe ich auch keine
korrupten Dateisysteme mehr. Deswegen mache ich eigentlich nur privat
größere Restore-Aktionen, falls ich mal auf größere Platten migriere
etc.

--
Martin

To Unsubscribe: send mail to majordomo(at)de.FreeBSD.org
with "unsubscribe de-bsd-questions" in the body of the message
Received on Thu 08 Mar 2012 - 18:07:38 CET

search this site