Re: Datensicherung mittels linux dd

From: Polytropon <freebsd(at)edvax.de>
Date: Wed, 31 Dec 2008 09:01:08 +0100

On Tue, 30 Dec 2008 11:51:04 +0100 (CET), Oliver Fromme <olli(at)lurza.secnetix.de> wrote:
> > allenfalls DVD-RAM im "Caddy" bei Mediamarkt, die schienen
> > aber für Videoanwendungen gedacht zu sein
>
> Glaube ich nicht. Camcorder, die DVD-RAMs schlucken,
> haben heutzutage eher keinen Caddy-Einzug.

Ich sagte ja nicht ausdrücklich "heute". :-) Allenfalls kann
ich mir vorstellen, daß diese "Video-DVD-RAMs" für die
Vorläufer (oder Parallelbegleiterscheinungen) von DVD- und
Festplattenrecordern gedacht waren.

Ähnlich wie die CDi (wer's noch kennt) hat sich auch dieses
System nicht durchgesetzt.

> > ("240 min" oder sowas stand drauf).
>
> Das hat nichts zu sagen, das steht auf praktisch allen
> Medien drauf. Genau wie auf CD-Rohlingen immer »74min«
> o.ä. draufsteht.

Muß ich gleich mal gucken... stimmt! Da hatte ich noch gar nicht
so drauf geachtet, das bezieht sich sicher auf die Spiellänge
für CD-Audio-Anwendungen (kann man ja dann auf 700 MB hochrechnen,
Samplingrate, Bitbreite, Kanäle usw.).

Ich vermute mal, daß es diese "Video-DVD-RAMs" auch für eine
dem CD-Spieler vergleichbare Anwendung gegeben hat, die dann
auch 240 Minuten Video auf das Medium aufgenommen hat. Das
dazu erforderliche Gerät habe ich aber nie kennengelernt.

> > > Der Medienpreis ist auch für mich das Kriterium schlechthin von
> > > Wechsellaufwerken wegzugehen.
> >
> > Stimmt, zumal man die Medien nicht ad libitum weiterverwenden kann.
>
> Das wäre mal wieder ein Punkt für MODs ... In den zwölf
> Jahren ist mir _nie_ eine MO-Disk kaputtgegangen. Ich
> habe hier immer noch meine allerersten MODs herumstehen.

Naja, ordentlich gelagerte Disketten können (!) durchaus auch
so lange leben, ich hab hier noch welche aus den 80er Jahren,
die in den zugehörigen Laufwerken tadellos laufen.

MODs sind schon was feines langlebiges und stehen damit nicht
im Trend der Wegwerfgesellschaft. :-)

> > Das Problem des Nicht-Lesens von Medien mit einem Laufwerk wird
> > durch Austausch des Laufwerks und Weiterverwendung des Mediums
> > bewerkstelligt.
>
> Das widerspricht aber Deiner obigen Beschreibung.

Tja, gegen merkwürdige Laufwerke kann man nunmal nichts
machen. Soweit die Spezifikation von Laufwerksrevision zu
Laufwerksrevision (vermutlich nur die Firmware, nicht unbedingt
die Innereien) nicht abweicht, sollten alle Medien problemlos
durchgegeigelt werden können.

Eine andere Geschichte hat man natürlich, wenn man seine
Backups bereits mit einem "dejustierten" Laufwerk schreibt.
Dieses liest die dann tadellos, aber kein anderes Laufwerk
tut das. Daher war auch der einführende Hinweis, man solle
seine Backups immer mit einem Zweitlaufwerk testen, sinnvoll.
Du schilderst das sehr schön an dem Fall mit dem Bandlaufwerk.
Vielleicht ist sowas ja auch von anderen Wechseldatenträgern
bekannt. Bei Festplatten gibts das ja auch, was insbesondere
dann zu Schwierigkeiten führt, wenn ein Zylinder mal explantiert
und in ein neues Antriebs- und Lesesystem eingesetzt werden
soll (minimale Unwucht).

> Das hat mir damals ziemlich deutlich den Eindruck vermit-
> telt, dass die Trennung von Laufwerk und Medien fatale
> Nachteile haben kann. Seitdem verlasse ich mich grund-
> sätzlich nicht mehr auf sowas und rate auch anderen davon
> ab. Ein Backup _muss_ einfach verlässlich sein, Punkt.
> Es darf nicht passieren, dass man seine Backups nicht
> mehr lesen kann.

Genau. Und Redundanz hilft da.

> In Rechenzentren mag es natürlich wieder anders aussehen.
> Dort sind in den großen Tapelibraries in der Regel mehrere
> Laufwerke verbaut, allein schon weil ein einzelnes Lauf-
> werk nicht die erfoderliche Backup-Bandbreite liefert.
> Dadurch hat man Redundanz, und man merkt man schnell,
> wenn eines der Laufwerke dejustiert ist.

Häufig erlaubt das eingesetze OS dann auch etwas mehr Diagnostik
auf den Laufwerken, um Fehlern schon möglichst früh zu begegnen.
Das ist dann häufig der Einsatzpunkt kommerzieller UNIXe oder
netter IBM-Systeme. Ähnlich wirkt ja auch unter Solaris die
Diagnostik des Arbeitsspeichers.

> Aber das ist
> natürlich nicht mit der Situation bei Privatanwendern und
> kleineren Firmen vergleichbar.

Stimmt. Hier entscheiden oft die finanziellen Mittel über das,
was machbar ist, und bei kleineren Datenmengen (naja, klein,
haha, so einige TB) ist die Doppelfestplattenvariante schon
die günstigste.

> > Kritisch kann es dann werden, wenn der Fortschritt der Computer-
> > technik dafür sorgt, daß die Laufwerke nicht mehr an den Rechner
> > angeschlossen werden können.
>
> Ich glaube, das ist das kleinste Problem. Für alles, was
> in den letzten 20 Jahren hergestellt wurde, kann man noch
> Rechner finden, wo man es anschließen kann (behaupte ich
> jetzt mal).

Das ist eine valide Behauptung. Es sind ja teils eben auch die
Rechner, die vor 20 Jahren liefen. Im Gegensatz zu ihren
"modernen" Pendants von heute tun die alten Kisten das nämlich
noch.

Teils wird ja aus Kompatibilitätsgründen, gerade im x86-Bereich,
älterer Anschlußkram mitgeschleppt, wie z. B. der Steckverbinder
des Diskettenlaufwerks oder der für PS/2-Maus und -Tastatur,
wenngleich sich heute USB dafür durchgesetzt hat.

> Sogar meine alte Amiga-RLL-Platte würde ich
> notfalls noch angeschlossen und ausgelesen kriegen, wenn
> es sein müsste. Und wer Dinge hat, die noch länger auf-
> bewahrt werden sollen, hat genug Zeit, sie auf etwas moder-
> neres umzukopieren.

Dieses Umkopieren muß dann aber in gewissen Zeitabständen
immer wieder passieren, je nachdem, wieviel Wert man darauf
legt, auf bestimmte Daten immer wieder zugreifen zu können.

Beim geduldigen alten Papier entfällt das. :-)

> > > Eine 2 Jahre trocken und kühl eingelagerte Festplatte hingegen
> > > unterliegt hingegen kaum einem Verschleiß.
> >
> > Stimmt, besonders dann, wenn sie nur zur Sicherung in Betrieb
> > genommen wird, also nicht ständig mitläuft
>
> Davon würde ich zwingend ausgehen.

Naja, ich kenne genug "Profis", die ihre "Backup-Platte"
dauerhaft im Rechner mitlaufen lassen. "Dann geht es schneller
beim Backup!" Naja, mag stimmen, aber die Platte nutzt sich ja
durch puren Betrieb auch ab. Ich gebe gern zu, daß eine interne
Platte üblicherweise schneller ist als eine über USB oder Fire-
wire angeschlossene, aber dann muß man sich die Zeit fürs
Backup ruhig mal nehmen. Im Zweifelsfall schreibt man als
letzte Anweisung "shutdown -p now" in sein Backup-Skript,
dann ist da auch Feierabend.

> > (was sie sehr schnell dem Ende ihrer natürlichen Lebenszeit
> > entgegentreibt).
>
> Naja, kommt auf die Platte an. Auch viele Ein-/Ausschalt-
> zyklen können die Lebensdauer verkürzen. Server-Platten
> sind für Dauerbetrieb optimiert, während z.B. Notebook-
> Festplatten für viele Schaltzyklen optimiert sind. In
> den Datenblättern der Hersteller wird dies meistens ange-
> geben.
>
> Aus diesem Grund ist es eher nicht ratsam, Server-Platten
> in USB/eSATA-Gehäuse einzubauen, die für regelmäßiges An-
> und Abstöpseln gedacht sind.

Richtig, da sollte man sich aber vorher informieren, was man
da eigentlich für eine Festplatte in der Hand hat. Mit den
SMART-Tools von FreeBSD kann man die entsprechenden Daten
über Betriebsstunden und E/A-Vorgänge auch bequem auslesen.
Und sich auch überlegen, wie man selbst seine IT-Infrastruktur
laufen lassen will. Bei vielen Firmen laufen ja File- oder
Applikationsserver eh die Nacht durch, so daß man da auf
Server-Platten für Backups bauen kann.

> (@Bernd) Klar, _damals_ waren die Bänder gut, aber würden
> die Bänder von damals für Dein heutiges Backup ausreichen?
> Bei mir definitiv nicht. Daher schrieb ich, dass ich sie
> nicht vermisse. Dass sie damals durchaus tauchten, stelle
> ich nicht in Frage.

Kommt auch, wie ich eingangs erwähnte, immer darauf an, WAS
man sichert bzw. wie groß die Datenmengen werden sollen. Im
Zeitalter von DV, MP3 und anderem Zeux sind die Bänder von
damals natürlich keine Alternative mehr.

> Übrigens, soviel ich weiß, stellt Tandberg immer noch QIC-
> Laufwerke und -Bänder her (unter dem »SLR«-Brand), die
> immerhin bis 70 GB unkomprimiert aufnehmen. Aber ich gehe
> davon aus, dass das heutzutage unwirtschaftlich ist und
> nur noch für Legacy-Anwendungen hergenommen wird.

Wahrscheinlich doppelt so teuer wie eine 700-GB-Festplatte. :-)

> > Für die damaligen Datenmengen nicht unwirtschaftlich. Die Bänder
> > waren vergleichsweise billig, gut verarbeitet (Metallplatte an
> > der Unterseite), nicht übermäßig groß. Und wegen der kleineren
> > Datenmengen - das waren ja keine TB damals - ging der Backup-
> > Vorgang auch in vertretbarer Zeit durch.
>
> Naja ... Ich glaube, damals hatte man einfach mehr Geduld, [...]

Ja, DA sagst Du was!

> [...] weil einfach _alles_ langsamer war (Internet, Festplatten,
> Prozessoren, ...).

Nicht nur die IT-Technik, auch die Menschen waren langsamer, oder
anders, sie haben sich Zeit genommen. Man stelle sich nur vor, was
die Leute damals über Computer und ihre Programme wußten und was
sie heute wissen...

> Ich fand es schon damals relativ lang,
> wenn ich ein QIC-120 füllen musste. Schnell war das nicht.
>
> (Nur um's ganz klar zu sagen: Ich rede hier _nicht_ von
> Floppy-Streamern; die waren nochmal eine Größenordnung
> schlimmer.)

Weiß ich, ich hatte einen, mit 500-MB-Travan-Bändern oder so.
Das lief dann immer über Nacht. :-)

Ich kann mich noch gut daran erinnern, das waren meine Linux-Einstiegs-
zeiten (so bin ich ja zu FreeBSD gekommen), da konnte man mit
/dev/rft0 son Unsinn machen wie es z. B. als "Musikkassetten"
gebrauchen...

So, dann wünsche ich schonmal höchst vorsorglich allen Mitlesern
einen guten Rutsch ins Neue Jahr!

-- 
Polytropon
>From Magdeburg, Germany
Happy FreeBSD user since 4.0
Andra moi ennepe, Mousa, ...
To Unsubscribe: send mail to majordomo(at)de.FreeBSD.org
with "unsubscribe de-bsd-questions" in the body of the message
Received on Wed 31 Dec 2008 - 09:01:23 CET

search this site