Re: Webserver von 0 auf 100]

From: Andreas Braukmann <braukmann(at)tse-online.de>
Date: Fri, 21 Feb 2003 11:23:08 +0100

Moin,
(Anmerkung, diese Mail ist ein Doppel einer zunaechst
off-list gefuehrten Diskussion.)

On Fri, Feb 21, 2003 at 01:21:57AM +0100, Robert Barten wrote:
> Ist Onboard-LAN überhaupt etwas für den Serverbetrieb?

Wenn es nicht gerade ein Realtek-Chip ist, klar, warum nicht?

> Bei Defekt kann
> man nur hoffen, dass sich der Adapter noch deaktivieren lässt, und gibt
> es auch aktive?

Was meinst Du mit "aktiv"? Auf den Server-class-Boards findet
man meistens den sehr zuverlaessigen und zudem mit cpu-spar-
samsten LAN-Chip (Intel i8255x Familie), der in der FreeBSD-
Welt (nicht zuletzt wegen des Treibers) sehr beliebt ist.
Auf Athlon-Boards (in Verbindung mit dem MPX Chipsatz) findet
man auch schonmal 3Com 920 (z.B. beim Tyan Tiger).

> Keine Ahnung, ist auch nur meine Meinung, bin kein
> Freund von AllInOne (außer bei der Ehefrau).

Och, ... bei Rackservern ist das extrem praktisch. Im Idealfall
hat man nix in den Slots stecken.

> Ich lese hier schon etwas länger mit und habe mir Gregor Bittel's
> SMP-Seite angesehen. Das ASUS wird nicht mehr geführt, also habe ich das
> MSI genommen (K7D Master L)

Ahhh. Also eher ein Workstation-Board. Naja, wenn Platz im
Gehaeuse ist, spielt das kaum eine Rolle. Ich hab hier im
Arbeitsplatz auch ein MSI Athlon-Board.

> > Performance dieser kleinen DPT-Abkoemmlinge ueberzeugte
> > mich bisher nie wirklich. Bei solchen Entscheidungen
> > lohnt es sich (wenn man nicht selbst testen kann) vorher
> > die internationalen Mailinglisten (hier z.B. -hardware
> > und -scsi) zu konsultieren. Dort schreibt und liest mit
> > Scott Long ein Adaptec Software-Mensch mit.
> Der Böses (Kritisches) über seinen eigenen Laden (2100S/2400A) sagt?

Klar. Treiber-Programmierer sind da meist recht unerbittlich ;-)
Zitat: "I'd highly recommend the 2120 or 2200. They both support
Ultra320, and the firmware/raid architecture is far superior to
the asr group of cards." [auf -scsi am 16.10.2002]

> > Du wirfst hier "Festplatte" und "RAID-Volume" durcheinander,
> > oder? Vom Begriff der Festplatte solltest Du Dich (was die
> > Verteilung der Netto-Daten angeht) geistig verabschieden.
> Ich meinte tatsächlich den Anfang der Platte, wegen der Geschwindigkeit.

Nein, Du meintest den Anfang eines RAID-Volumes, welches (wenn
passend angelegt) sich vermutlich ueber den Anfang der beteilig-
ten Platten erstreckt.

> Aber in Sachen RAID bin ich noch ziemlich unbedarft, je mehr ich lese,
> je öfter entscheide ich mich um. Im Endeffekt steht der Server hier und
> ich bin noch beim Vorspiel :)

Das ist normal, wenn man wenig Routine hat ;-)

> > Du konfigurierst den RAID-Controller so, dass er Dir eine
> > passende Anzahl von RAID-Volumes mit den passenden Eigen-
> > schaften zur Verfuegung stellt. Wie variable der 2100S das
> Ich möchte 2 Platten strippen, die anderen beiden sollen nur die Spiegel
> sein, NACH dem Strippen.

Das hat IMHO keinen Sinn. Wenn Dir eine Platte stirbt, verlierst
Du den Bereich, der ausschliesslich gestriped (RAID 0) ist. Das
willst Du (im Rechenzentrum) aber nicht.

> Jemand hat hier (sicherlich nicht ganz ernst
> gemeint) vorgeschlagen, einen zusätzlichen SCSI-Controller + eigene
> Platte für Swap einzubauen.

Das ist natuerlich kappes. Swap auf RAID 10 (oder 0+1) geht schon
in Ordnung. Das Schreiben ist im Schnitt immer noch doppelt so
schnell wie auf einer Einzelplatte (wegen des Stripings) und beim
Lesen kann man theoretisch die vierfache Performance einer Einzel-
platte erreichen; ... aber genau das macht der Adaptec 2100 eben
nicht. Schade. Er liest nur von zwei Spindeln.

> > kann, hab ich gerade nicht im Kopf. Es sollte aber zumin-
> > dest moeglich sein, auf derselben Gruppe von 4 Festplatten
> > sowohl RAID-10 Volumes als auch RAID-5 Volumes anzulegen.
> Außer Paritätscheck ohne ExtraLW gibt es doch keinen Unterschied zu
> Level 10?

Das ist aber der entscheidende Unterschied. RAID 10 oder RAID 0+1
liefert Dir eine Speicherausnutzung von 50% (Spiegelung) und sehr
gute Lese- *und* Schreibperformance (Striping). RAID-5 leidet unter
schlechter Schreib-Performance, dafuer bietet es mehr Netto-Volumen.
Bei n Spindeln mit einer Kapazitaet von jeweils k ergibt sich bei
RAID-5 ein Netto-Volumen von (n - 1) * k.
So, und nun verteilen wir das mal auf Deine 4 Platten.
Als erstes ein RAID 0+1 oder 10 Volume von (sagen wir mal) 10 GByte.

RV-1 - RAID 10 bzw. 0+1 - 10 GByte
Die 10 GByte verbrauchen 20 GByte Brutto-Volumen auf den Platten,
also 5 GByte auf jeder Platte.

Uns bleiben also nun noch 31 GByte auf jeder Platte uebrig. Daraus
bauen wir nun ein RAID-5 Volume:

RV-2 - RAID 5 - 93 GByte
Nach oben genannter Formel ergibt sich als Kapazitaet ein Netto-
Volumen von (n - 1) * k = (4 - 1) * 31 GByte = 3 * 31 GByte

Du hast also Deinen Brutto-Plattenplatz deutlich oekonomischer
eingesetzt als mit einer puren RAID 0+1 / 10 Loesung (maximal
waeren dann 72 GByte herausgekommen).

Beim Adaptec 2100 werden die RAID-Volumes (ueber den asr(4)-Treiber)
als stinknormale da[0-9]-Devices ins CAM-Subsystem gereicht. Wenn
Du also ein RAID 0+1 und ein RAID-5 Volume im RAID-BIOS anlegst,
erscheinen dieses als da0 und da1 in Deinem FreeBSD.
Auf jeder dieser ("virtuellen") Platten legst Du eine FreeBSD-fdisk-
Partition ("slice" im FreeBSD-Jargon) an (daraus duerften sich dann
da0s1 und da1s1 ergeben). Diese Partitionen werden dann mittels
"disklabel" in Partitionen (da0s1a, da0s1b [b ist traditionell fuer
"swap"], da0s1e, etc.) aufgeteilt, die dann die Dateisysteme auf-
nehmen.

> /usr/X11R6 wird es nicht geben. Ich komme locker mit 2 GB für /usr aus,
> allerdings Linux, aber ich richte mich gern nach den Standards für
> FreeBSD, bevor es nachher klemmt ...

Naja. Ein voellig nacktes FreeBSD-/usr (ohne src, obj, ports; das
legt man meist eh auf ein eigenes Dateisystem) ist kleiner als
100 MByte.
Hier mal ein Ueberblick ueber ein /usr inkl. games und X11:
    kodaly:[/usr] # du -hd1
     11M ./bin
    8.9M ./include
     31M ./lib
     11M ./libdata
     16M ./libexec
    6.5M ./sbin
     90M ./share
     27M ./X11R6
    2.0K ./compat
    1.5M ./games
    374K ./home
    202M .

> > Das stimmt auch wieder; ... insbesondere, weil /usr (wie
> > auch /, /usr/local/, /home) problemlos auf einem RAID-5-
> > Volume liegen kann.
> Jetzt habe ich den Zusammenhang verloren. Ist vielleicht auch schon ein
> bisschen spät, werde mich belesen.

Auf die genannten Dateisysteme wird fast ausschliesslich lesend
zugegriffen. Die schlechte RAID-5-Schreibperformance macht sich
daher kaum bemerkbar.

> > Ich hab hier knapp 2 GByte Mail-Archiv in Maildirs auf
> > einem insgesamt 4 GByte grossem (Standard-)Dateisystem.
> > Das Dateisystem ist zu 90% gefuellt; die inodes sind zu
> > 32% verbraucht. Ich denke nicht, dass Ihr Probleme mit
> > den inodes bekommen werdet.
> SOWAS ist absolut hilfreich! Für /var/spool/mail also kein eigene(r|s)
> Slice nötig?

Ein "slice" sicher nicht (s.o.); aber ein eigenes Dateisystem
sollte man fuer /var ansich, und bei belasteten Mailservern auch
fuer /var/spool/mail, ein eigenes Dateisystem verwenden. Dadurch
ist der Mailspool gut isoliert. Laeuft der Mailspool ueber, wird
der restliche Systembetrieb nicht weiter gestoert; laeuft eines
der anderen Dateisysteme ueber, wird er Mailspool dadurch nicht
kuenstlich verkleinert.
Also: *ich* wuerde zumindest dafuer sorgen, dass /var/log und
und /var/spool/mail in unterschiedlichen Dateisystemen liegen.

-Andreas

-- 
sick.
To Unsubscribe: send mail to majordomo(at)de.FreeBSD.org
with "unsubscribe de-bsd-questions" in the body of the message
Received on Fri 21 Feb 2003 - 11:23:14 CET

search this site