Cluster: Teamwork unter Rechnern

Sobald mehrere Rechner zu einem Netz verbunden sind, sprechen wir von einem ‚Cluster‘. Diese Netze können sich - je nach Verwendungszweck – erheblich unterscheiden.

Geht es um ständige Verfügbarkeit und Ausfallsicherheit, dann sprechen wir von einem High-Availabity-Cluster (HAC). Sobald dort in einem Knoten des Netzes ein Problem auftritt, ‚migrieren‘ die laufenden Dienste auf einen anderen Knoten. Alles ist ersetzbar, lautet hierbei die Regel: Sowohl die Hard- wie auch die Software eines HA-Clusters darf keine singulären Komponenten enthalten, da bei einem Ausfall solche ‚Einzelgänger‘ das gesamte System lahmlegen könnten. Mindestens eine Doppelauslegung aller Komponenten ist für HA-Cluster daher Gesetz. Oft trennen die Komponenten solcher Cluster geographisch Distanzen von Kilometern, so dass auch in einem Katastrophenfall das System nicht versagt (‚stretched Cluster‘).

Wechselnde Leistungsanforderungen sind weiteres Problem, das sich durch Cluster beheben lässt. Hier kommen die ‚Load-Balancing-Cluster‘ zum Einsatz (LBC), die jeden Arbeitsanfall bei erhöhten Anforderungen gleichmäßig unter sich aufteilen. Solche Systeme werden oft aus Kostengründen installiert. Statt einzelner teurer Hochleistungsmaschinen teilt hier ein Schwarm aus vernetzten Standard-Computern wechselnde Aufgaben gleichmäßig unter sich auf.

Auch dort, wo es um die ständige Bewältigung solch großer Datenmengen geht, kommen ‚Cluster‘ zum Einsatz. Diese High-Performance-Computing-Cluster (HPC) sind zumeist in der Wissenschaft zu finden. Mit Hilfe eines Decomposition-Programms wird die Arbeitslast auf viele Rechner aufgeteilt, die jeweils Teilaufgaben übernehmen (‚Jobs‘). Kritische Größen sind hier die Geschwindigkeit des Netzwerks und der verwendeten Software. Sogenannte ‚Super-Rechner‘ verwenden zumeist ein HPC-Cluster, das auf einer Linux-Basis operiert.
Λ