AW: Cluster?

From: Samer, Michael, IN <Michael.Samer(at)ingolstadt.bertrandt.com>
Date: Tue, 11 May 1999 13:47:00 +0200

> -----Ursprüngliche Nachricht-----
> Von: Oliver Fromme [SMTP:olli(at)dorifer.heim3.tu-clausthal.de]
> Gesendet am: Dienstag, 11. Mai 1999 04:51
> An: de-bsd-questions(at)de.freebsd.org
> Betreff: Re: Cluster?
>
> Samer, Michael, IN wrote in list.de-bsd-questions:
> > wir benutzen ein Program, welches auf einer SGI Octane R12000 etwa drei
> > Wochen rechnet (Matrixen ausrechnen). Nun bekommen wir aber immer mehr
> von
> > diesen Aufträgen und mein Gedanke war, statt einer 8fach Octane (mit 8
> > CPU's) einen Cluster von Alphas zu benutzen.
>
> Ob das sinnvoll wäre, hängt natürlich von der Art der Software
> ab. Zunächst mal: Würde sie überhaupt auf den Alphas laufen?
> Habt Ihr den Source (und ist er portabel genug), oder seid Ihr
> auf Binaries angewiesen? Unterstützt die Software überhaupt
> Clustering in sinnvoller Weise?
        [Samer, Michael, IN] Wir sind auf binaries angewiesen (die Sw
kostet pro Jahr weitaus mehr als ich meinen Arbeitgeber), sie ist als SMP
Version erhältlich, weitere infos bekomme ich erst von parametrics, welche
diese SW herstellen/vertreiben.
           
> Und was nicht weniger wichtig ist: Von welcher Art Paralleli-
> sierung würde die Software am ehesten profitieren (wie stark
> ist die Bindung zwischen den Programmteilen, und wie groß ist
> das Kommunikationsaufkommen zwischen ihnen)?
        [Samer, Michael, IN] Die Kommunikation untereinander ist angeblich
nicht so groß, allerdings können sie nicht wie in POV autark arbeiten, damit
ist eine sync. relativ oft (alle paar Sekunden) notwenig. Das Programm lebt
davon Matrizen von 1Mill*1Mill Feldern auszurechnen (wovon Ergebnisse des
vorherigen oft ausschlaggebend sind) und dies ein paar hundert mal mit
leicht veränderten werten. Würden diese unabhängig voneinander sein, wäre es
wunderbar skalierbar, denn eine einzelne MAtrize ausrechnen zu lassen dauert
auf einer SGI 250MHz Octane R12000 etwa 2-4 Stunden; leider ist es nicht
so...
> Beispiel: POV-Ray (Raytracing) läßt sich trivial parallelisie-
> ren, die Bindung ist praktisch gleich Null, und es ist ziemlich
> egal, ob man es auf mehrere CPUs in einer SMP-Kiste oder auf
> einen Cluster von Maschinen tut, die per Wählleitungen verbun-
> den sind. ;-) Eine 8fach Octane wäre in diesem Fall nichts
> weiter als eine haarsträubende Geldverschwendung.
>
> Auf der anderen Seite gibt es Anwendungen, bei denen die ein-
> zelnen Programmteile in hohem Maß voneinander abhängen und mit-
> einander kommunizieren müssen. Dies sind typische Anwendungs-
> fälle für dicke SMP-Maschinen mit hochgezüchteten Gigabyte-
> Backplanes. Mit einem Cluster kann man hier keinen Blumentopf
> gewinnen. (Aus diesem Grund war auch der Vergleichstest in ei-
> ner der letzten c'ts zwischen einem Linux-Cluster und einer
> Cray völlig idiotisch. Sehr traurig, daß die c't so tief ge-
> sunken ist.)
        [Samer, Michael, IN] Hier muß ich dir rechtgeben. Ich kenne zwar
diesen Bericht nicht (keine Zeit mehr mehr als eine Zeitschrift pro Monat zu
lesen), aber ein MPP ist ja doch eher ein Unterschied vom Cluster, auch wenn
ich noch nicht viel mit Clustern gearbeitet habe. Würde Pamcrash nach meinem
Matrizenausrechenverfahren arbeiten, wäre es wohl auf bis zu paar hundert
Maschinen wunderbar skalierbar und nach wenigen Stunden fertig!
> > Hat jemand (bevorzugt in Unis, Oliver z.B.[Oliver den ich über Mail
> direkt
> > nicht erreichen kann?!?!?!]) schon erfahrung mit Clustering und deren
> > Effektivität?
        [Samer, Michael, IN] Ich habe von einem Forscher (MIT) bereits ein
paar Werte erhalten, nur daß ich einen Dauemnwert habe. Klar daß Apps wie
POV ganz anders rechnen und ansprüche stellen wie finite Elemente Berechnen
oder Datenbanken oder primzahlen ausrechnen oder "number cruncher".
> Wie gesagt, es kommt sehr darauf an, was das Programm tut. Die
> Spanne der Realisierungsmöglichkeiten auf Cluster-Basis kann
> von "trivial" bis "nicht machbar" reichen.
>
> Gruß
> Oliver
>
> PS: Mail an oliver(at)fromme.com kommt immer bei mir an.
>
> --
> Oliver Fromme, Leibnizstr. 18/61, 38678 Clausthal, Germany
> (Info: finger userinfo:olli(at)dorifer.heim3.tu-clausthal.de)
>
> "In jedem Stück Kohle wartet ein Diamant auf seine Geburt"
> (Terry Pratchett)
>
> To Unsubscribe: send mail to majordomo(at)de.FreeBSD.org
> with "unsubscribe de-bsd-questions" in the body of the message

To Unsubscribe: send mail to majordomo(at)de.FreeBSD.org
with "unsubscribe de-bsd-questions" in the body of the message
Received on Tue 11 May 1999 - 13:43:25 CEST

search this site