Hochleistungscomputer: Konkurrenz der Parallelen

Nie war die Auswahl an Supercomputern größer als heute – und nie verwirrender für die Kunden. Für einige Hersteller wird jetzt die Luft dünn.

Top/Business 10/1993

Eben noch ganz tief unten im Jammertal, will James G. Treybig schon wieder ganz hoch hinaus. Nach einem verheerenden Quartal, in dem der Verlust seiner Firma mit über einer halben Milliarde Dollar größer ausfiel als der Umsatz, denkt der Chef der Tandem Computers Inc. nur noch ans Dach der Welt: „Himalaya“, die neueste Rechnergeneration, soll dem gebeutelten Silicon-Valley-Unternehmen wieder den nötigen Auftrieb verschaffen. „Es gibt kein System mehr auf dem Markt“, behauptet „Jimmy“ Treybig keck, „mit dem Tandem nicht konkurrieren könnte.“

Des Gipfelstürmers Optimismus scheint berechtigt. Die neuen Maschinen stoßen nämlich in Leistungsregionen vor, die mit herkömmlichen Großrechnern kaum zu erreichen sind, kosten aber nur einen Bruchteil. Ein Modell, das zum Beispiel 100 Kontobuchungen oder Sitzplatzreservierungen pro Sekunde bewältigt, ist für 750 000 Mark zu haben; das Vorgängersystem stand zum sechsfachen Preis in der Liste. Das Geheimnis der Himalaya-Computer – die nach dem Vorbild des Achttausenders K 2 auf „K 100“, „K 1000“ und „K 10000“ getauft wurden – liegt in ihrem völlig neuartigen Innenleben: Hinter den Stahltüren der Rechnerschränke verbirgt sich nämlich die absolut gleiche Elektronik wie in einer gewöhnlichen Workstation, die heutzutage beinahe jeder Ingenieur neben seinem Schreibtisch stehen hat – nur eben in doppelter bis zu 224facher Ausführung.

Die kalifornische Computerschmiede, deren als ausfallsicher geltende Geräte vor allem in Banken stehen, setzt damit als erster größerer Hersteller alles auf eine Technologie, die gerade beginnt, ihr Exoten-Image abzustreifen. Ob der Coup gelingt, bleibt abzuwarten. Doch soviel ist sicher: Hochleistungsrechner auf Basis herkömmlicher Workstation-Chips werden, da wesentlich preiswerter, zur ernsthaften Konkurrenz für teure Großrechner und klassische Supercomputer à la Cray.

Simpel die Grundidee des neuen Konzepts: Die in recht hohen Stückzahlen produzierten Prozessoren der Workstations bergen enorme Leistungsreserven, die im Normalbetrieb sehr selten ausgeschöpft werden. „Typischerweise sind Workstations nur zu fünf bis zehn Prozent ausgelastet“, verweist Wolfgang Gentzsch, Geschäftsführer der Genias Software GmbH in Neutraubling bei Regensburg, auf eine Studie des amerikanischen Nationallabors Los Alamos. Diese brachliegenden Kräfte gilt es in einem Datennetzwerk raffiniert zu bündeln.

Premiere in der Schweiz

Dabei ist es in vielen Fällen gar nicht erforderlich, die Chips wie beim „Himalaya“ fest in ein geschlossenes System einzubauen. Prinzipiell kann jede Nullachtfünfzehn-Workstation mit Anschluß an ein Datennetz genutzt werden. Selbst die kunterbunt zusammengewürfelten Maschinenparks von rund um den Globus verstreuten Universitätslabors und Forschungseinrichtungen eignen sich für eine kostensparende Kooperation.

Um zu beweisen, daß die technischen Möglichkeiten im wahrsten Sinn des Wortes grenzenlos sind, startete der Informatiker Clemens Cap von der Eidgenössischen Technischen Hochschule (ETH) Zürich ein weltumspannendes Experiment: Eine hochkomplexe Rechenaufgabe aus der Molekularbiologie verteilte der Wahl-Schweizer auf 600 Computer in vier Kontinenten. Minuten später meldeten die Maschinen brav die Teilergebnisse an die ETH. Das technische Limit glaubt Cap damit noch längst nicht erreicht zu haben: „Berechnungen auf 5000 bis 8000 Workstations parallel sind sicher keine Illusion.“

Zwar lassen sich längst nicht alle rechenintensiven Aufgaben in dieser Weise verhackstücken. Dennoch sind solche Nachrichten für die Hersteller von hochgezüchteten, teuren Supercomputern fatal. Denn dieser recht junge Zweig der Hardware-Industrie hat es schon schwer genug, die Kundschaft für seine Produkte zu begeistern. So rauft sich nicht nur ein gutes Dutzend Anbieter um Anteile an diesem noch sehr begrenzten Markt, es gibt auch ein Dutzend unterschiedlicher technischer Konzepte: Vektormodule als „Turbolader“ für normale Großrechner, eigenständige Vektorcomputer sowie jeweils eine reiche Auswahl an Multiprozessor-Systemen und an massiv-parallelen Rechnern. Über den Konsens, daß letzteren die Zukunft gehört, sind die Rivalen indes noch nicht hinausgekommen.

Selbst die großen Computerkonzerne sind sich offenbar keineswegs sicher, in welchem Tempo sich der Markt in welche Richtung bewegen wird. Um auf keinen Fall den Anschluß zu verpassen, verfolgte allein die IBM in den vergangenen Jahren drei verschiedene Entwicklungsrichtungen.

Konkurrenz der Konzepte

So schloß der Konzern aus Armonk, N.Y., ein Technologieabkommen mit dem ParallelrechnerUnternehmen Thinking Machines aus Cambridge, Massachusetts. Gleichzeitig subventionierte IBM über Jahre hinweg die Forschungsarbeiten des Computerkonstrukteurs Steve Chen, Ex-Entwicklungschef des etablierten Spezialherstellers Cray Research Inc., ehe das (technisch vollkommen gegensätzliche) Projekt in aller Stille begraben wurde. Und im IBM-eigenen Multiprozessor-Labor Kingston experimentierte eine Forschergruppe unter dem Code „Vulcan“ mit bis zu 30.000 parallelgeschalteten Prozessoren.

Inzwischen ist das erste Ergebnis dieser Arbeiten fertig: eine Rechenmaschine mit dem spröden Namen IBM 9076 SPI, die mit bis zu 64 Workstation-Chips bestückt werden kann. Aus diesem Einstiegsmodell soll mit der Zeit eine ganze Produktfamilie hervorgehen, deren kräftigster Sproß – wie seine geistigen Eltern hoffen – schon in drei Jahren die magische „Teraflops“-Linie überspringen wird. Die Maßeinheit Teraflops, gleichbedeutend mit 10 hoch 12 (1000 Milliarden) Fließkomma-Operationen pro Sekunde, spielt eine zentrale Rolle im Forschungsförderungsprogramm „Grand Challenges“ der amerikanischen Regierung.

Allerdings sind jene „großen Herausforderungen“, die bereits vom Technologiestab des Ex-Präsidenten George H. Bush definiert wurden, allein mit ultraschnellen Riesencomputern nicht zu bewältigen. Was ebenso dringend fehlt, sind die passenden Programme. Der Verbund aus neuen Hardware- und Softwarearchitekturen – so der Wunsch der Politiker – soll den Wissenschaftlern noch in diesem Jahrtausend helfen, den Veränderungen des globalen Klimas auf die Spur zu kommen oder die Geheimnisse des menschlichen Genoms zu enträtseln.

Zu diesem Zweck flossen allein im vorigen Jahr 638 Millionen Steuer-Dollars an akademische Rechenzentren und Großforschungslabors. Bisher hat die Geldspritze aus Washington allerdings nur als indirekte Subvention für die Hardwarehersteller wirklich etwas bewirkt.

Subventionierte Supertechnik

Anhand der „Top 500“-Liste der schnellsten Computer der Welt, zusammengestellt vom Mannheimer Supercomputer-Papst Professor Hans-Werner Meuer und seinem Kollegen Jack Dongarra aus Tennessee, läßt sich nachvollziehen, wo das viele Geld gelandet ist: Alles, was in der amerikanischen Forschungslandschaft Rang und Namen hat – allen voran die großen (Ex-) Atomforschungsbehörden -, hat seit Ende 1991 bei Thinking Machines eingekauft. Viele Institute legten sich die neue Intel-Maschine „Paragon“ zu. In Maßen profitierten auch die übrigen Parallelrechner-Produzenten vom Dollar-Segen.

Standards fehlen

Wenn in den Labors dringende Rechenaufgaben anstehen, satteln die Computerspezialisten allerdings immer noch ihre alten Arbeitspferde, die klassischen Vektorrechner von Cray. Denn für die gibt es wenigstens erprobte Software, die die Rechenleistung der Hardware optimal ausnutzt. Diesen Vorsprung versucht der Branchenälteste zu verteidigen: Im kommenden Jahr bringt Cray Research eine massiv-parallele Ergänzung seiner konventionellen Supercomputer auf den Markt.

Unterdessen mühen sich die übrigen Anbieter in enger Zusammenarbeit mit Universitäten und staatlichen Forschungseinrichtungen, ihre Softwaredefizite auszugleichen. Kooperationen zwischen Herstellern dagegen sind selten und, wenn es sie gibt, nicht von Dauer. So verkündeten Digital Equipment (DEC) und Intel im Frühjahr 1992 eine Zusammenarbeit bei der Entwicklung einer Standard- Programmiersprache namens High-Performance Fortran. Außerdem sollten Intel-Computer vom Partner unter dessen Namen vertrieben werden. Doch die Allianz währte nicht lang – DEC beliefert schließlich den Intel-Konkurrenten Cray mit Mikroprozessoren für dessen geplante Parallelmaschine.

Da ein allgemeingültiger Standard – vergleichbar mit Windows bei Personal Computern – bisher fehlt, wagen sich erst wenige Softwarehäuser an diesen Markt heran. Im Prinzip sind zwar alle Hersteller für Superrechner-Normen, weil sie das Geschäft einfacher machen würden. Betriebssysteme und Programmiersprachen, die auf allen Systemen gleich gut laufen, sind aber noch Zukunftsmusik. „In drei bis fünf Jahren“, verspricht Thomas Bemmerl, Leiter des europäischen Supercomputer-Entwicklungszentrums von Intel in München, „wird es eine sehr viel breitere Softwarebasis für Parallelrechner geben.“

Währenddessen entdecken immer mehr Anwender die Vorzüge der Workstations. Mit Hilfe dieser Arbeitsplatzrechner emanzipieren sich Forscher und Entwickler zunehmend von zentralen Supercomputern und Großrechnern. So simuliert die Zentralabteilung Forschung und Entwicklung (ZFE) der Siemens AG in München seit einem Jahr elektronische Schaltkreise auf den jeweils freien Workstations. „Das Verfahren bringt uns ein 27faches Speedup“, schwärmt Qinghua Zheng vom Entwicklungslabor für Siliziumprozeßtechnik der ZFE für die zeitsparende Technik.

In Ludwigshafen untersuchen Quantenchemiker der BASF mittels eines „Clusters“ von 16 IBM-Geräten die Eigenschaften polymerer Werkstoffe, die es außerhalb des Computers noch gar nicht gibt, oder sie tragen in der Wirkstoff-Forschung zum Design neuer Enzyme bei. Da die Rechner ohnehin vorhanden sind, laufen die umfangreichen Berechnungen von Molekülen bis zu 100 Atomen oft fast zum Nulltarif – meist nachts oder am Wochenende. Dann arbeiten alle Geräte im Gleichschritt, als wären sie ein Parallelrechner.

Preiswerte Cluster

Um keine Kapazität ungenutzt zu lassen, überwacht bei derartigen Installationen ein Master-Rechner auch während der regulären Arbeitszeiten ständig alle angeschlossenen Maschinen, so daß etwa während der Kaffeepause eines Mitarbeiters dessen Computer für die Arbeit der Kollegen eingespannt werden kann. „Die Workstation-Cluster sind in Anschaffung und Betrieb um den Faktor zehn günstiger als Mainframes“, freut sich auch Eckhard Handke, bei der Gesellschaft für Wissenschaftliche Datenverarbeitung mbH in Göttingen (GWDG) für zentrale Systeme zuständig. Die GWDG, die als Service-Einrichtung der Universität und mehrerer Max-PlanckInstitute bereits eine größere Zahl von Workstations betreibt, hat bei Digital Equipment neun zusätzliche Systeme geordert und will dafür Ende dieses Jahres einen IBM-Großrechner mit Vektor-Zusatz einmotten.

Bis Ende 1994 will auch das Max-Planck-Institut für Plasmaphysik (IPP), München-Garching, weitgehend auf Workstations umsteigen. Ein Programm, das am IPP bisher auf einer Cray lief, ist bereits übersetzt. Obwohl das Institut im Laufe der Jahre die verschiedensten Fabrikate angeschafft hat – IBM, DEC, Hewlett-Packard, Sun Microsystems und Silicon Graphics -, sind alle Rechner in den Verbund einbezogen.

Genias-Chef Wolfgang Gentzsch, in der Branche eigentlich als Supercomputer-Spezialist bekannt, setzt angesichts dieser Marktentwicklung verstärkt auf die Cluster. Nach verschiedenen Forschungsinstituten konnte er das Produkt Codine – „Computing in Distributed Networked Environments“ – auch an die Entwicklungsabteilung der Volkswagen AG verkaufen, das damit einen Mainframe überflüssig macht.

Das Workstation-Fieber hat inzwischen sogar einen neuen Computerhersteller auf den Plan gerufen. In Aachen, ganz in der Nähe des deutschen Parallelrechnerpioniers Parsytec, baut jetzt die mittelständische Dressler GmbH & Co. eine parallele Super-Workstation mit bis zu 50 handelsüblichen Prozessorchips von Sun Microsystems. Diese „Gigamachine“ arbeitet mit der gleichen Software, die auch auf Sun-Hardware läuft. Vom Aufbau her entspricht das Aachener Gerät, das zwischen 70.000 und 1,7 Millionen Mark kosten soll, einem Workstation-Netzwerk in einem einzigen Gehäuse.

Es scheint, als bekäme Himalaya-Bezwinger Jimmy Treybig Gesellschaft auf dem Gipfel.

Ulf J. Froitzheim

Top Business Info

Hochleistungsrechner sind die Formel 1 der EDV. Ursprünglich für Simulationen in amerikanischen Nuklearlabors entwickelt, erobern sie heute immer weitere Anwendungsgebiete. Auf Anbieterseite gibt es inzwischen die unterschiedlichsten Technologiekonzepte. Die wichtigsten:

❏ Vektorrechner: Spezialsystem zur Berechnung dynamischer physikalischer Vorgänge; traditionell sehr wenige Prozessoren, darum müssen Effekte, die in der Realität gleichzeitig auftreten, nacheinander bearbeitet werden

❏ Vektorzusatz: rüstet IBM-Großrechner zur Vektormaschine auf; normalerweise arbeiten Computer „skalar“, also mit einfachen Zahlen

❏ Parallelrechner: viele (zum Beispiel 16, 32, 64) Prozessorchips lösen simultan Teilaufgaben

❏ massiv-parallele Systeme: enthalten im Extremfall Tausende von Prozessoren, um vielschichtige Probleme schneller zu lösen

❏ Workstation-Farmen oder -Cluster: Alternative zu parallelen oder massiv-parallelen Computern; lasten vorhandene Rechner besser aus; nur für gut portionierbare Aufgaben

Sie sind der oder die 2329. Leser/in dieses Beitrags.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.