Der langsame Tod der Datosaurier
aus highTech 12/1991
Ulf J. Froitzheim und Winfried Rauscheder über Parallel Computing
Klassische Großcomputer haben ihre Zukunft bereits hinter sich. Parallelrechner mit Myriaden billiger Mikrochips übernehmen immer öfter ihre Jobs. Die neuen Parallelrechner bringen nach Spezialisten wie Cray selbst die mächtige IBM in Zugzwang.
Als frecher Herausforderer arrivierter Konzerne hat sich Falk-Dieter Kübler in der Computerindustrie mittlerweile einen Namen gemacht. In letzter Zeit riskiert der Chef der Aachener 150-Mann-Firma Parsytec allerdings eine besonders dicke Lippe – maßt er sich doch an, gleich ein neues Zeitalter auszurufen: die Ära des Parallelrechners „jenseits des Supercomputers“ à la Cray Research. Kübler traut sich sogar, allen Ernstes ein gigantisches Computermonstrum feilzubieten, von dem er nicht einmal einen Prototypen vorweisen kann: Das Topmodell GC-5 soll knapp 15 Tonnen wiegen, mit mehr als 16000 Mikroprozessoren über 400 Kilowatt Strom verbrauchen und natürlich die großen Probleme der Menschheit lösen – in Form der in den USA definierten „Grand Challenges“. Solch einen Moloch ohne Kundenauftrag zu bauen, könnte sich die kleine Parsytec (24 Millionen Mark Jahresumsatz) gar nicht leisten. Denn GC-5 hätte beste Chancen, als teuerster Computer der Welt im Guinness-Buch der Rekorde verewigt zu werden.
Vom Know-how her könnte Kübler, hätte er mehr Geld, den GC-5 tatsächlich bauen. De facto wird er wohl erst einmal den GC-2 und den GC-1 bauen. Letzterer hat nur 64 Prozessoren, ist mit anderthalb Zentnern noch halbwegs handlich, eignet sich für eher alltägliche Simulationsaufgaben in der Industrie und bleibt nicht zuletzt – mit einem Preis ab 800000 Mark – für viele Anwender erschwinglich. Das freilich muss er auch sein, denn die Konkurrenz ist hellwach.
Die wenigen direkten Rivalen von Parsytec sitzen, abgesehen von der britischen Meiko Scientific plc., in den USA. Auf den ersten Blick ist kein Angstgegner in Sicht, handelt es sich doch durch die Bank um kleine Newcomer, deren Umsätze in der Portokasse des Branchenprimus IBM nicht weiter auffallen würden. So nahm die Thinking Machines Corp. als größter Anbieter massiv-paralleler Computer, wie diese ungeheuer leistungsstarken Rechenmaschinen im Fachjargon heißen, 1990 gerade einmal 60 Millionen Dollar ein. Die übrigen – N-Cube, Active Memory Technology (AMT) oder MasPar Computer Corp. – sind genauso klein wie Parsytec, nur die Parallelrechner-Division des Chip-Riesen Intel kann halbwegs mit den Zahlen des Marktführers mithalten. Doch es gibt einen Grund, warum sich alle etablierten DV-Hersteller brennend für diese Handvoll winziger Denkstuben interessieren: Die Beherrschung der Parallelrechner-Technologie, bei der viele Teilaufgaben gleichzeitig statt nacheinander erledigt werden, entscheidet darüber, ob ein Anbieter in der Informationstechnik morgen noch Geld verdienen kann.
Zwar werden in den meisten Betrieben noch traditionelle DV-Konzepte fortgeschrieben – die immensen Investitionen in bestehende Software können nicht einfach abgeschrieben werden. Aber der Unmut über die immer deutlicher zutage tretende Unwirtschaftlichkeit klassischer Großrechner eskaliert. Die Bereitschaft, Neues auszuprobieren, wächst.
Genau an diesem Punkt setzen die Hersteller von Parallelprozessorsystemen den Hebel an. „Bei Personalcomputern und Workstations stieg die Leistung in den achtziger Jahren ums Hundertfache“, rechnet etwa Maspar-Präsident und Ex-Digital-Equipment-Vorstandsmitglied Jeff Kalb vor, „bei Mainframes und Supercomputern lag der Leistungszuwachs gerade einmal bei 15 Prozent pro Jahr.“
Wie gravierend sich die Balance verschoben hat, zeigt folgender Vergleich: War 1975 ein IBM-Spitzenmodell im Rechenzentrum noch 1000 mal so kraftvoll wie ein Mikroprozessor, schließen sich die Höchstleistungschips der neuesten Workstations praktisch nahtlos ans untere Ende der schrankgroßen Mainframe-Computer an. Zusammengeschaltet zu einem sogenannten symmetrischen Multiprozessorsystem, können ein bis zwei Dutzend Workstation-Chips bereits heute lässig einen Großrechner ersetzen. Erst kürzlich übertrug beispielsweise das amerikanische Investment-Unternehmen Merrill Lynch & Co. seine zentrale Datenbank auf einen kompakten und mit 500000 Dollar vergleichsweise billigen Multiprozessorrechner des Herstellers Sequent Inc.
Weil es beim Thema Parallelverarbeitung eben nicht nur – wie oft behauptet – um den von Cray Research dominierten Nischenmarkt der technisch-wissenschaftlichen Zahlenfresser geht, sondern um alltägliche kaufmännische DV-Anwendungen, springen neuerdings auch Anbieter wie IBM, Digital Equipment (DEC), NCR oder Hewlett-Packard auf den anrollenden Zug:
♦ Hatte DEC-Chef Kenneth Olsen einst seinen langjährigen Mitstreiter Jeff Kalb mitsamt wichtigen Parallelcomputer-Patenten nach Kalifornien ziehen lassen, holte er ihn heuer – zumindest indirekt – wieder an Bord: Digital vertreibt seit Mitte des Jahres Maspar-Maschinen auf dem Weltmarkt.
♦ Die AT&T-Tochter NCR kann dank der Technologie ihres kalifornischen Partners Teradata Corp. neuerdings mit einer durchgängigen Produktlinie vom PC bis zum massiv-parallelen Megacomputer aufwarten. Die konsistente Architektur gibt NCR einen enormen Rationalisierungseffekt: Alle Modelle arbeiten ausschließlich mit preiswerten Standard-Prozessorchips von Intel.
♦ Hewlett-Packard fertigt im Auftrag der N-Cube Computer Corp., die bei Insidern als eine der interessantesten Parallel-Firmen gilt, deren eigenentwickelte Chips – und wird als potentieller Vertriebspartner dieses Unternehmens gehandelt.
♦ Computermammut IBM kooperiert nach einem finanziellen Engagement in der Firma des einstigen Cray-Entwicklungschefs Steve Chen jetzt auch mit dem Lieblingskind der Washingtoner Technologiebehörde Darpa, der auf dem Campus des Massachusetts Institute of Technology (MIT) gegründeten Thinking Machines Corp.
Gerade für IBM ist die behutsame Handhabung dieses heiklen Themas eine Frage von Gedeih oder Verderb. Der Marktführer steht massiv unter Druck – im dritten Quartal ging der Verkauf von Hardware um 14 Prozent auf 7,8 Milliarden Dollar zurück, der Gewinn rasselte um 85 Prozent in die Tiefe. Dabei hängt Big Blue wie kaum ein anderer Hersteller von teuren, technisch veralteten Großsystemen ab, deren einziges Plus die gewaltige Fülle bewährter Anwendungssoftware ist.
Ausgerechnet mit neuen Maschinen aus dieser Modellreihe, deren technische Wurzeln in die sechziger Jahre zurückreichen, hofft Chairman John F. Akers nun den Abwärtstrend zu stoppen. Ihm bleibt allerdings auch gar keine andere Wahl, als den DV-Dinosauriern noch eine Weile treu zu bleiben. Wie bei einem schweren Öltanker hätte eine allzu abrupte Kurskorrektur nach dem Gesetz der trägen Masse den sicheren Untergang zur Folge.
IBM-Boss Akers verlegte sich statt dessen auf eine wohlüberlegte Umarmungsstrategie. Thinking Machines, seit kurzem auch Technologiepartner des Workstation-Spezialisten Sun Microsystems, darf jetzt mit Aufträgen von IBM-Stammkunden rechnen, die im Höchstleistungsbereich eine Erweiterung ihres Rechenzentrums brauchen – sei es um Abfragen von großen Datenbanken schneller abzuwickeln oder technisch-wissenschaftliche Probleme im Zeitraffer zu lösen. Mit diesen Aufgaben ist der Juniorpartner im Idealfall erst einmal so beschäftigt, dass er keine Vorstöße in Big Blues Allerheiligstes unternimmt, also in die kommerzielle Datenverarbeitung der Großkunden.
Die Denkmaschinen dienen aber auch dem Zweck, die IBM-Kundschaft von Kontakten zu den wirklich gefährlichen Mitbewerbern abzuhalten. Beispiel NCR: Der traditionelle Systemlieferant von Handel und Banken will mit seinen massiv parallelen Spitzenmodellen genau da einsteigen, wo IBM-Großanlagen überfordert sind. Nach einem solchen Entree könnte NCR leicht auch in die unteren Etagen der DV-Hierarchie vordringen. Denn die 64 Intel-Prozessoren des neuen Systems 3600 arbeiten mit einer Version des immer beliebteren Standard-Betriebssystems Unix, das auch auf allen kleineren NCR-Modellen bis hin zum Tischcomputer am Arbeitsplatz läuft.
Es scheint allerdings, als ginge die auf Zeitgewinn ausgerichtete Politik von IBM und anderen Großrechnerbauern auf. In Europa stehen die DV-Einkäufer der innovativen Hardware noch recht reserviert gegenüber – keiner will den Anfang machen. Bis Jahresende erwartet NCR auf dem Kontinent nur vier Vertragsabschlüsse, davon einen in Deutschland.
Allerdings handelt es sich dabei um Blindzusagen – nicht einmal die Verkäufer selbst haben ein Vorführgerät. So muss auch Produktmanager Manfred Köhler schlucken bei dem Gedanken, einen Computer zu vermarkten, der zwei Milliarden Instruktionen pro Sekunde ausführt und trotzdem billiger ist als ein klassischer Mainframe, dem schon bei zehn Prozent dieser Leistung die Puste ausgeht: „Wir haben uns selbst erst daran gewöhnen müssen, bei unseren Kunden mit solchen Zahlen aufzutreten.“ Dabei ist die heute lieferbare NCR 3600 erst der Anfang – nächstes Jahr soll die Leistung sich verfünffachen, 1993 im Modell 3700 noch einmal verzehnfachen.
Repräsentanten der reinrassigen Supercomputer-Produzenten haben solcherlei Umstellungsschwierigkeiten nicht. Siegesgewiss verkündet Peter Wüsten, Ex-Siemensianer und Europachef von N-Cube: „Die parallele Architektur wird im Spitzenbereich auf jeden Fall gewinnen, und die großen Hersteller wissen das.“ Wüsten kann sich beispielsweise auf William J. Camp berufen, den obersten Computermanager der Sandia National Laboratories in Albuquerque/New Mexico, eines Atomforschungszentrums, das seit jeher auf -zig Millionen teure Vektorrechner von Cray abonniert war.
Galten solche Maschinen bisher in jedem Forschungsrechenzentrum als der Heilige Gral, sorgten Camp und seine Leute jetzt für eine gründliche Entmystifizierung. Die Sandia-Softwerker übertrugen immer mehr Supercomputer-Programme auf massiv parallele Computer von N-Cube und Thinking Machines, bis ihre sieben Crays schließlich nur noch zu fünf Prozent ausgelastet waren. Meint Camp lapidar: „Wir haben wohl unsere letzte Cray gekauft.“ Jetzt entwickelt der betroffene Hersteller, der einen Jahresumsatz von 900 Millionen Dollar und einen Marktanteil bei wissenschaftlichen Größtrechnern von fast 80 Prozent zu verteidigen hat, unter dem Codenamen Triton selbst einen massiv-parallelen Computer.
Das Geheimnis der Parallelrechnertechnik liegt in einer Eigenschaft, über die herkömmliche Computer nicht verfügen: Sie sind skalierbar, können also linear – ohne nennenswerte Leistungseinbußen – bis in ungeahnte Dimensionen vergrößert werden. Die neueste Generation von Thinking Machines, CM-5, reicht theoretisch bis in den sogenannten Teraflops-Bereich hinein, bei dem mehr als eine Billion Gleitkomma-Operationen in der Sekunde abgearbeitet werden müssen.
Solche unvorstellbaren Rechengeschwindigkeiten sind nötig, will sich die Wissenschaft an die „Grand Challenges“ wagen, also beispielsweise im Zusammenhang mit dem Human Genome Project oder in der Erforschung globaler Klimaveränderungen. Das gilt übrigens unabhängig davon, mit welcher Methode die Forscher arbeiten wollen – ob mit algorithmischen Modellen oder mit künstlichen neuronalen Netzen.
Weniger faszinierend, dafür aber ökonomisch um so reizvoller ist der Einsatz skalierbarer Computer in komplexen Unternehmensdatenbanken sowie in der Online-Transaktionsverarbeitung. Alle Unternehmen, die mit sehr großen Datenvolumina hantieren müssen – wie Banken, Eisenbahnen oder Fluggesellschaften – könnten bald von den innovativen DV-Konzepten profitieren.
„Leider kam `Amadeus‘ ein paar Jahre zu früh für uns“, bedauert N-Cube-Europachef Peter Wüsten. 1987 hatten die Lufthansa, Air France, Iberia und SAS die IBM beauftragt, ihnen für ihr brandneues multinationales Reisevertriebssystem am neuen Münchner Flughafen das teuerste Rechenzentrum Europas zu bauen – mit klassischen Großrechnern. Im Verbund schaffen die derzeit sechs wassergekühlten IBM-Datosaurier, Kostenpunkt -zig Millionen von Mark, derzeit rund tausend Transaktionen (Rechnerzugriffe) pro Sekunde, der Wert soll in Kürze auf 1700 ansteigen. Ein einziges luftgekühltes N-Cube-System mit 64 Prozessoren, Kaufpreis knapp fünf Millionen Mark, kam unlängst bereits auf 1073 Transaktionen pro Sekunde.
Möglich wurde dieser Rekordwert, den NCR mit seiner 3600 im kommenden Jahr noch überbieten will, durch eine neue Software des US-Datenbankspezialisten Oracle. Dessen Gründer und Chef Lawrence J. Ellison ist Berufsoptimist in Sachen Parallelverarbeitung: Er firmiert gleichzeitig als größter Einzelaktionär von N-Cube. Auch die Oracle-Konkurrenten Sybase und Ingres haben den neuen Markt erkannt und sich mit Verve auf das Thema gestürzt.
Allerdings sind die gravierenden Softwareprobleme, die sich aus der Umstellung auf parallele Hardware ergeben, noch längst nicht alle gelöst. Viele Aufgabenstellungen sind von ihrer Natur her sequentiell und lassen sich daher gar nicht parallelisieren. Dazu zählen alle Berechnungen, deren Faktoren in engen kausalen Wechselbeziehungen zueinander stehen.
Doch auch mit den Anwendungen, die den Mathematikern und Informatikern kein größeres Kopfzerbrechen mehr bereiten, kann der junge Industriezweig prächtig leben. Jährliche Zuwachsraten von 50 bis 100 Prozent gelten trotz weiter fallender Hardwarepreise als realistisch. Damit wird diese Szene auch interessant für große Softwarekonzerne wie Computer Associates, die der Innovation bislang abwartend gegenüberstanden, weil ihnen der Markt für Parallelrechner-Software zu unergiebig war.
Schon sind ermutigende Signale zu hören. „Endlich tut sich mal wieder was“, freut sich Peter Pagé, Vorstand der Software AG in Darmstadt, über den frischen Wind aus Aachen, Cambridge/Massachusetts und Beaverton/Oregon. Dem Chef von Deutschlands größtem Softwarehaus ist nicht bange, dass er auf diesem Gebiet den Anschluss verpassen könnte: „Wenn das Betriebssystem da ist, haben wir keine Probleme, dafür Software zu liefern.“
Die Chancen, einen Standard zu finden, stehen nicht schlecht. Denn es gibt bereits einen gemeinsamen Nenner: Nahezu alle Parallelrechnerhersteller arbeiten mit Elementen des Betriebssystems Unix, das bei Workstations und Abteilungsrechnern – den sogenannten Servern – heute schon die Norm ist, ebenso wie bei den symmetrischen Multiprozessorsystemen, die heute als Einstiegsdroge in die parallele Szene fungieren.
Eine so einheitliche Systemwelt wäre nicht nur ein absolutes Novum für die DV-Industrie. Sie würde auch ungemein die Effizienz der Softwareentwickler steigern, weil die gesamte Energie auf das eigentliche Problem konzentriert werden könnte – was wiederum dem Geschäft zusätzlichen Auftrieb geben dürfte. Jeff Kalb, der von Anfang an auf Unix gesetzt hat, lacht sich schon heute ins Fäustchen: „Mit unserem enormen Entwicklungstempo hatte bei Digital niemand gerechnet – wir haben ihnen glatt drei Jahre Entwicklungsarbeit erspart.“
Sie sind der oder die 2909. Leser/in dieses Beitrags.