Re: Cluster wie Raid mit verteilten CPU-Ressourcen

From: Jens Rehsack <rehsack(at)liwing.de>
Date: Sat, 21 Jun 2003 15:43:37 +0200

On 6/21/2003 2:42 PM, Oliver Fromme wrote:
> Moin,
>
> Es hat sonst keiner drauf reagiert, also versuche ich mal
> mein Glück ...

:-)
arbeitsintensive Zeit ...

> Nils Beyer <NilsBeyer(at)web.de> wrote:
> > ich spiele mit den Gedanken, bei uns (im Betrieb) ein
> > Cluster aus (erstmal) zwei Rechnern aufzubauen.
>
> Da fangen schon die Probleme an. Verschiedene Leute haben
> verschiedene Vorstellung davon, was sie als »Cluster« be-
> zeichnen. Für einige ist es schon ein Cluster, wenn die
> Kisten vernetzt sind und eine PVM-Software drauf läuft.
>
> Das andere Extrem sind dann Leute, für die ein Cluster
> schon eine schnelle Kopplung erfordert (Fastethernet ge-
> nügt da nicht), und der Cluster muß sich wie ein einziger
> Rechenr verhalten, d.h. er hat nur eine IP, und wenn man
> sich darauf einloggt, kann man nicht sagen, auf welchen
> Node(s) die Login-Shell läuft.

Da macht sich eine Softwarekomponente wie PSSP+HACMP recht gut,
die das alles unterstützt, wenn es die Hardware hergibt :-)

> > 1. Die beiden getrennten Platten sollen synchron
> > sein, d.h. der Master-Knoten (PC01) gibt vor,
> > was auf der Platte sein soll, und der Slave-Knoten
> > (PC02) gleicht den Inhalt seiner Platte dement-
> > sprechend an.
>
> Das ist mit normalen Mitteln schonmal alles andere als
> trivial. Es gibt mehrere Möglichkeiten, wie man es re-
> alisieren könnte, mit unterschiedlichem Preisaufwand.
>
> Das sicherste und performanteste (aber auch teuerste)
> wäre ein separater Filer bzw. Filer-Cluster (z.B. von
> NetApp), der die Daten dann an die beiden Rechner via
> NFS liefert.

Da war doch letztens mal 'n recht interessanter Thread zu,
von wegen NFS-Cache / -Mirror. Stichwort: Archivsuche :-)

Lösungen gibt es da allerdings noch einige mehr (nur FreeBSD):

1) AFS - http://www.openafs.org/
   Ich habe das vor ca. eineinhalb Jahren mal probiert, da
   funzte es mit FreeBSD noch nicht so richtig. Falls Tester
   verfügbar sind, würde ich mich nochmal - diesmal gleich als
   Port - versuchen.
2) clusterfähiger Raid-Controller, wie es sie z.B. von ICP-Vortex
   gibt. Die können entweder einen externen Plattenstapel
   gemeinsam nutzen, oder 2 Stapel im Master/Slave-Mode, wie
   beschrieben.

> > 2. Die CPUs der beiden Rechner sollen gemeinsam
> > alle Anwendungen berechnen, die sonst ein einzel-
> > ner PC rechnen würde. Also alles das, was halt
> > standardmäßig und ohne extra genannt zu werden
> > gebootet, ge-init.d usw. wird: sshd, ftpd, dhcpd
> > usw.
>
> Dafür ist mir keine FreeBSD-Software bekannt. Auch hier
> könnte man wieder die »gehobene« Lösung empfehlen: Setze
> die beiden Rechner separat auf und schalte einen L8-Switch
> davon (z.B. Nortel Alteon). Dann hast Du Load-Balancing
> und Redundanz bzw. automatisches Fail-Over.
>
> Man kann sowas ähnliches natürlich auch mit Bordmitteln
> emulieren. Ist eine Frage der Zeit und des Aufwands.

Ich wollte mich auch mal an eine HACMP-Implemetation für FreeBSD
machen, finde aber keine Zeit dafür. Ich könnte Nils allerdings
dabei mit Rat und etwas Tat zur Seite stehen, falls er sich
versuchen möchte.

> > 3. Fällt ein PC aus, übernimmt der andere die Auf-
> > gaben. Ist der defekte PC wieder intakt, soll
> > er halt wie bei 1. sein Dateisystem synchroni-
> > sieren und wieder bei 2. mitmachen.
>
> Das Problem ist, daß Du viele verschiedene Dinge auf einmal
> machen möchtest (Datensicherheit durch Replikation, Load-
> Balancing der Prozesse und Dienste, Redundanz für High-
> Availability bzw. Fail-Over).

Load-Balancing kann HACMP allerdings nicht, dafür musste man
i.allg. sowieso einen applikationsspezifischen Loadbalancer
zwischenschalten. Ging aber auch HA :-)

[SCHNIPP]

> Alle genannten Maßnahmen entbinden selbstverständlich nicht
> von der Pflicht, regelmäßig Backups anzufertigen.

Das wollte ich mal noch stehen lassen!!!

So long,
Jens

To Unsubscribe: send mail to majordomo(at)de.FreeBSD.org
with "unsubscribe de-bsd-questions" in the body of the message
Received on Sat 21 Jun 2003 - 15:43:46 CEST

search this site