Am 22. Dezember 2009 17:29 schrieb Matthias Fechner <idefix(at)fechner.net>:
> Hallo,
>
[snip]
> 1. Ist es sicher das mit 1GB Speicher zu betreiben oder wäre es sinnvoll,
> hier noch mehr Speicher reinzustecken, hab noch DDR und DDR2 Sockel frei,
> wäre also kein Problem.
Zu ZFS auf 32-bit steht hier einiges:
http://wiki.freebsd.org/ZFSTuningGuide
Das Problem mit ZFS ist weniger, dass ihm der physikalische
Speicher ausgeht, sondern dass ZFS soviel Speicher allokieren will,
dass schlichtweg der abbildbare Kernelspeicher ausgeht.
Der ist mit 32-bit schlichtweg dadurch begrenzt, dass der auch
bei jedem Benutzerprozess noch in den virtuellen Speicherbereich
passen muss. Ich traue es mich fast nicht sagen, aber 4GB sind
heutzutage nicht mehr wirklich "viel" Speicherplatz.
Wenn ich hier so auf unseren Backupserver (64bit, zfs-only) schaue:
% vmstat -m | grep solaris
solaris 36562 1314113K - 34120441
16,32,64,128,256,512,1024,2048,4096
Da wäre mit 32-bit längst Ende der Fahnenstange.
Ich weiß nicht, ob das jetzt noch so ist, aber ich konnte meine 32-bit
Arbeitsmaschine
relativ einfach dadurch abschießen indem ich von ufs testweise mein
Home-Verzeichnis
auf einen zfs-pool kopiert habe. Resultat: Kernel Panic, Reboot. Das
kann inzwischen
(mit 8.0) besser sein, allerdings werde ich die Maschine nach den
Feiertagen auf 64bit
hochziehen, so dass ich das wohl nicht mehr nochmal testen werde.
>
> 2. Ist eine 64-bit Umgebung wirklich zwingend notwendig, würde lieber auf
> 32-bit bleiben, da weiss ich, dass alles läuft was ich brauche (ISDN Karten
> mit Asterisk etc.)
siehe oben.
Fazit: Es geht schon, aber nicht unbedingt gut und zuverlässig.
>
> 3. Ich kann an dem Mainboard nur 2 Festplatten anschliessen. Bei der
> Umstellung auf das gmirror Raid, war das kein Problem, da man das Raid
> angelegt hatte und ihm gesagt hatte, die zweite Platte fehlt noch.
> Dann hatte ich alle Daten von der alten Platte auf die neue Raid1 Platte
> kopiert. Rechner runtergefahren, alte Platte raus, die Raidplatte auf Port
> eins und die neue rein, vom Raid gebootet, mit gmirror insert gm0 /dev/ad6
> die zweite Platte in das Raid gehängt und den Rest hat dann gmirror für mich
> gemacht.
Das geht, aber ein Log sagt mehr als tausend Worte:
# zpool create zdata ad0s2h
# zpool status zdata
pool: zdata
state: ONLINE
scrub: none requested
config:
NAME STATE READ WRITE CKSUM
zdata ONLINE 0 0 0
ad0s2h ONLINE 0 0 0
# zpool attach zdata ad0s2h ad1s2h
# zpool status
pool: zdata
state: ONLINE
scrub: resilver completed after 0h0m with 0 errors on Wed Dec 23 10:59:25 2009
config:
NAME STATE READ WRITE CKSUM
zdata ONLINE 0 0 0
mirror ONLINE 0 0 0
ad0s2h ONLINE 0 0 0 44K resilvered
ad1s2h ONLINE 0 0 0 70,5K resilvered
Siehe auch zpool(1M) unter "attach":
zpool attach [‐f] pool device new_device
[...]
If device is not currently part of a mirrored configuration,
device automatically transforms into a two‐way mirror of device
and new_device.
Wie man sieht ist zfs auch so schlau, intelligent zu kopieren, also nur
tatsächlich belegte Blöcke auf die neue Platte zu schaufeln.
Den von Dir vorgeschlagenen Weg sollte man allerdings dennoch nur dann
beschreiten, wenn man ein zuverlässiges Backup hat, schiefgehen kann
immer was.
Grüße und schöne Feiertage,
Peter
To Unsubscribe: send mail to majordomo(at)de.FreeBSD.org
with "unsubscribe de-bsd-questions" in the body of the message
Received on Wed 23 Dec 2009 - 11:09:00 CET