Die Kabel enger schnallen

kabelenger

Über Jahrzehnte wurde die Informationstechnik immer effizienter. Die schiere Zahl der Geräte treibt jedoch den Energiebedarf auf immer neue Rekordhöhen. Dies zwingt die Nutzer zu einem bewussteren Umgang mit der Technik.

Veteranen aus der Zeit, als Informationsverarbeitung noch EDV hieß, muss niemand bewusst machen, welch immensen Energiehunger Computer entwickeln können. Die Jungen haben leider keine Chance mehr, sich überwältigen zu lassen vom Anblick jener respekteinflößenden IBM- und Siemens-Großrechner, die bis in die Neunzigerjahre hinein den Löwenanteil der Rechenleistung in den Unternehmen erbrachten: stählerne Monster in klimatisierten Sälen, durch dicke Glaswände sichtbar abgeschottet von den Abteilungen, für die sie arbeiteten. Beim Rechnen liefen diese als Mainframes bekannten „Elektronengehirne“ derart heiß, dass der wichtigste Mann im Rechenzentrum der Klempner war, der die Wasserkühlung der Systeme in Schuss hielt. Dieser Aufwand wurde getrieben für Anlagen, deren Arbeitsspeicher die gleiche Datenmenge fassten wie heute der Speicherchip eines besseren Smartphones – acht Gigabyte galten schon als mächtig.

Eine Milliarde PCs als Problem fürs Weltklima

Jene Ära, in der ein Finanzvorstand beim Stichwort EDV spontan an seine Stromrechnung denken musste, schien Anfang 1990 förmlich hinweggespült zu werden in den Orkus der Technikgeschichte. Damals ergoss sich zunächst ein Schwall von 150 Kubikmetern Rechenzentrumskühlwasser über vier Etagen eines Wolkenkratzers in Los Angeles und anschließend grenzenlose Häme der Konkurrenz über den Computerproduzenten IBM. Der damals noch marktbeherrschende Konzern war nämlich zugleich Verursacher und Geschädigter der peinlichen Überschwemmung. Stand der Technik waren damals bereits wesentlich wirtschaftlichere Prozessoren, deren mäßige Abwärme sich leicht per Luftkühlung fortblasen ließ.

Nach fast zwei Jahrzehnten, in denen sich angesichts immer effizienterer Halbleiter kaum noch jemand über die Energiebilanz seiner IT-Gerätschaften einen Kopf machte, ist das Thema im Rahmen der CO2-Debatte nun wieder weit oben auf der Tagesordnung gelandet. Fast überraschend war klar geworden, wie viel Mist das elektronische Kleinvieh in Summe macht: 2002 wurde der einmilliardste PC verkauft, inzwi- schen steuert sogar die Zahl der weltweit aktiv genutzten Computer diese Marke an. Die Deutsche Energie-Agentur taxiert die Bandbreite bei der Leistungsaufnahme der Rechner auf 75 bis 300 Watt. Nicht nur wegen der angeschlossenen Peripheriegeräte kann es im Einzelfall deutlich mehr sein: Die stärksten internen PC-Netzteile sind für Spitzenleistungen von 1000 Watt ausgelegt. Die weltweit installierte Leistung einschließlich aller Monitore, DSL-Modems, Router, Drucker und Scanner liegt somit brutto im dreistelligen Gigawatt-Bereich – also in der glei
chen Größenordnung wie das Energie-Angebot aller Kraftwerke einer großen Industrienation wie Deutschland (wobei den PC-Usern zugute zu halten ist, dass längst nicht jeder von ihnen seinen Rechner rund um die Uhr laufen lässt).

Der größere Teil des Zuwachses geht zwar seit Jahren aufs Konto der Privathaushalte, aber auch die Wirtschaft hat im Zuge der IT-gestützten  Automatisierung von Geschäftsprozessen in den Büros massiv aufgerüstet. Nach Angaben der amerikanischen Umweltschutzbehörde EPA verdoppelte sich der Energieverbrauch der Server in den USA binnen fünf Jahren (von 2001 bis 2006). Dass bei solchen Steigerungsraten die Stromrechnung zwangsläufig wieder einen deutlichen Einfluss auf die Gesamtbetriebskosten („Cost of Ownership“) bekommt, haben noch längst nicht alle IT-Verantwortlichen registriert. Bei einer Befragung von 950 Unternehmen im „EMEA“-Raum (Europa, Nahost und Afrika), deren Ergebnisse der japanische IT-Ausrüster Hitachi Data Systems vorigen Sommer vorstellte, erklärte fast jeder sechste Befragte rundweg, Umweltfragen wie die nach der Klimabilanz spielten für ihn bei der Kaufentschei- dung gar keine Rolle, jeder dritte fand sie nicht entscheidend. Als „Key Priority“, also als absolutes K.O.-Kriterium, stuften erst 17 Prozent die Umweltverträglichkeit ein.

IT WIRD NUR LANGSAM GRÜN
Einfluss von Umweltkriterien auf IT-Kaufentscheidungen europäischer Unternehmen
17 % Hohe Priorität
33 % Zunehmend wichtig
15 % Irrelevant
3 % Weiß nicht

Einer der Ersten, denen es gelang, die Aufmerksamkeit der Öffentlichkeit auf   den Stromfresser Computer zu lenken, war der amerikanische IT-Kritiker Nicholas Carr. Der Bestsellerautor und frühere Redakteur der renommierten Harvard Business Review rechnete den Lesern seines Blogs „Rough Type“ bereits Ende 2006 haarklein vor, in der Spielwelt Second Life verbrauche jeder Avatar 1752 Kilowattstunden pro Jahr. Das wäre annähernd der Stromkonsum des durchschnittlichen Single-Haushalts in Deutschland oder –  wie Carr mahnte – beträchtlich mehr als die Gesamtenergiebilanz eines Bürgers in einem Schwellenland.

Bald machte das Thema Karriere: Webtürsteher Google stand nun nicht wegen seiner Macht am Pranger, sondern als Klimaschädling. So machte die Behauptung die Runde, der Strom, den ein einziger Suchauftrag verschlingt, genüge einer 11-Watt-Energiesparlampe, um eine Stunde zu leuchten. Die Zahl erwies sich zwar als ebenso angreifbar wie Nick Carrs Überschlagsrechnung. Als Appell ans schlechte Gewissen hatte sie jedoch ihren Zweck erfüllt.

Als die gut gemeinte Ente via Web ihren globalen Rundflug startete, war die PR-Abteilung von Google längst selbst darauf gekommen, dass es mit der Vergeudung im gewohnten Maßstab nicht weitergehen kann. So tat sich der Suchmaschinenbetreiber mit dem Chip-Hersteller Intel zusammen, um sich und der Welt Gutes zu tun und darüber zu reden. In Kooperation mit dem World Wide Fund For Nature (WWF) gründeten die beiden Konzerne die „Climate Savers Computing Initiative“. Deren erklärtes Ziel lautet, den Stromverbrauch der IT bis 2010 auf die Hälfte zu senken.

Ökonomisch-ökologische Win-win-Situation

Der Natur sollen so pro Jahr 54 Millionen Tonnen an Treibhausgasen, den Teilnehmern des Aktionsprogramms 5,5 Milliarden Dollar an vermeidbaren Kosten erspart bleiben. Binnen kürzester Zeit schlossen sich dem Bündnis Un- ternehmen wie Ebay, Microsoft, Dell, IBM und Hewlett-Packard an, aber auch das Massachusetts Institute of Technology. Aus Deutschland gesellte sich die Messe AG Hannover hinzu – und proklamierte für 2008 die „grüne“ CeBIT. Also alle alten Rechner verschrotten und sparsame neue kaufen: Ist es das, was die prominenten Sponsoren aus der Hardwareindustrie im Schilde führen? Wird Saulus zum Paulus, weil das für ihn eine verlockende Geschäftsidee ist, quasi eine ökonomisch-ökologische Win-win-Situation?

Mit einem bloßen Gerätewechsel ist das Problem kaum zu lösen. Das Grundübel ist nämlich nicht der Energiehunger der elektronischen Komponenten im Betrieb, sondern das krasse Missverhältnis zwischen dem schier überbordenden Leistungsangebot, das die Technik bereitstellt, und dessen tatsächlicher Beanspruchung. Es handelt sich also um ein uraltes Phänomen in neuer Ausprägung: Bereits im informationstechnischen Neolithikum der Sechzigerjahre heizten die zentralen Recheneinheiten sündhaft teurer Mainframes sinnlos vor sich hin, während der Operator den nächsten Lochstreifen oder das nächste Magnetband einlegte. Die Informatiker und Hardwareingenieure lösten das Problem, indem sie Systeme mit automatischer Lastverteilung entwickelten. Die einzelnen Jobs, die dem Computer zugedacht waren, wurden nun in eine Warteschlange eingereiht und nach dem FIFO-Prinzip (First In, First Out; der Erste mahlt zuerst) abgearbeitet. So stieg die Auslastung mit zunehmender technischer Reife auf über 90 Prozent.

Beim individuellen Arbeitsplatz-PC bringt Load Balancing wenig: Ein Buchhalter, der in SAP oder Excel seine Zahlenkolonnen erfasst, oder ein Journalist, der seinen Text ins Redaktionssystem tippt, lastet einen für Programme wie Photoshop oder gar 3D-Simulationsspiele ausgelegten Prozessor nur zu einem winzigen Bruchteil aus. Es ist der Fluch einer universellen Technik, die jedem für wenig Geld alle Möglichkeiten bieten will und deshalb auf das Maximum dessen optimiert ist, was der User von ihr irgendwann erwarten könnte.

Wer den Computer als komfortable Schreibmaschine nützt, erwartet zwar klare schwarze Schrift auf weißem Grund. Dies mit einem TFT-Monitor zu bewerkstelligen, der für jedes einzelne Pixel des simulierten weißen Schreibpapiers pausenlos Energie aus dem Netz ziehen muss (siehe Seite 108), ist ebenso verschwenderisch wie die bequeme Quasi-Standleitung ins Internet über Wireless LAN und DSL-Modem oder die permanente Dienstbereitschaft des womöglich sogar farbtauglichen Laserdruckers, der nur dann ohne lästiges Zögern anspringt, wenn seine Innereien es schön warm haben. Um welche Größenordnungen es dabei geht, ist in Hardwaretests der Fachpresse nachzulesen: Mancher Printer genehmigt sich im Standby-Modus mehr als 50 Watt – das ergibt im Jahr über 80 Euro Stromkosten fürs Nichtstun.

Claus Barthel, Energieexperte beim Wuppertal-Institut, geht denn auch von Effizienzreserven aus, die deutlich oberhalb jener 50 Prozent liegen, die sich die Google-Allianz zum Ziel gesetzt hat. Laut einer Chart, die der Wissenschaftler bei Vorträgen zeigt, beträgt das Verhältnis zwischen Arbeit und digitalem Däumchendrehen bei Computern und Laserdruckern 30 zu 70, beim Faxgerät sogar 20 zu 80. Etwas lindern ließe sich die Diskrepanz laut Barthel durch Netzteile nach neuestem Stand der Technik: „Bei Handys geht das ja auch.“

Eine Schere zwischen Theorie und Praxis klafft zudem beim Energiemanagement. Die Nutzung der vom Betriebssystem angebotenen Funktionen wird zwar allenthalben dringend empfohlen. Doch nicht alle Hersteller halten es für nötig, für den Auslieferungszustand die sparsamste Einstellung zu wählen. Ein Mitglied des Climate-Saver-Konsortiums lieferte sogar noch im vorigen Jahr Geräte aus, bei denen die „Energy Star“-Funktion ganz abgeschaltet war.

Windows-XP-Nutzern kann es zudem passieren, dass sich urplötzlich weder die Standby-Funktion aufrufen lässt noch der Ruhezustand, der immerhin die wichtigsten Stromverbraucher im Gerät stilllegt. Um diese Panne zu provozieren, genügt es, die Festplatte über Gebühr mit Fotos oder Videos zu beladen. Manchmal blockiert auch ein offenes Programm die Standby-Automatik, die eigentlich Festplatte und Monitor abschalten soll, wenn sich an Tastatur und Maus nichts mehr tut. Das kann eine Mailsoftware sein, die alle zwei Minuten nachschaut, ob neue Post da ist, ein Refresh-Applet auf einer geöffneten Webseite oder auch ein speicherresidentes Kommunikations-Tool wie Skype.

Zumindest ein Teil der Büroarbeiter wird solche Phänomene künftig höchstens noch am privaten Heimcomputer erleben. Die konsequenteste Umsetzung des Gedankens der „grünen IT“ läuft nämlich auf die völlige Abschaffung des gewohnten Windows-PC als Standard-Arbeitswerkzeug hinaus – und auf eine Renaissance der straff geführten zentralen Datenverarbeitung mit heutigen Mitteln. Auf dem Schreibtisch steht dann nur noch ein „Thin Client“, ein minimalistisches Gerät mit kleinem Stromverbrauch, das nicht einmal einen Lüfter braucht. Die Software läuft fast vollständig auf dem Server. Optimiert wird auch die Datenspeicherung: Wenn nicht jeder alte Kram, den nur selten jemand sucht, binnen Sekundenbruchteilen verfügbar sein muss, lässt sich der Strom vieler nutzlos rotierender Festplatten einsparen. Sollte die Vorratsdatenspeicherung in der Telekommunikation die Verfassungsklage überleben, wird das ein wichtiges Thema für Telefonfirmen und Internetprovider.

In vielen Firmen wird aber alles beim Alten bleiben. „Wenn der Einkäufer die Rechner um 20 Euro billiger bekommt, greift er zu“, ahnt Bernard Aebischer vom Centre for Energy Policy and Economics der ETH Zürich, „er ist ja nicht verantwortlich fürs Strombudget.“

TECHNOLOGY REVIEW Sonderheft 1 / 2008

Fotos: CERN, c’t

Sie sind der oder die 1291. Leser/in dieses Beitrags.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert