Digitaler Hörfunk: Autarkie dahin

Die ARD bremst den UKW-Nachfolger DAS. Das störungsfreie Radio kommt trotzdem.

Fast hätte der digitale Fortschritt nach dem Plattenspieler auch noch das UKW-Radio dahingerafft. Allein in Europa, so sah es der kühne Zeitplan des 125 Millionen Mark teuren EG-Forschungsprojekts Eureka 147 vor, wären bis zum Jahr 2010 mehr als 600 Millionen konventionelle Autoradios, Tuner, Kompaktanlagen und Kofferradios reif für die Wertstofftonne gewesen. Zu jenem Termin nämlich sollte das neue Hörfunksystem Digital Audio Broadcasting (DAB) endgültig das aus den fünfziger Jahren stammende UKW ablösen.

So rasch wird auf der klassischen Ultrakurzwelle nun doch keine Funkstille herrschen. Die Zwangsbeglückung des Publikums mit dem CD-Radio ist im Ansatz gescheitert. Und damit ist auch der Traum der Unterhaltungselektronikmanager geplatzt, binnen 15 Jahren nahezu jedem Bewohner des Kontinents mindestens einen neuen Apparat verkaufen zu können.

Auslöser der Vollbremsung waren die Intendanten der ARD, deren hauseigenes Institut für Rundfunktechnik GmbH (IRT) in München bisher unter den Verfechtern des neuen Super-Hörfunks in der ersten Reihe gekämpft hatte. Auf einer Sitzung Anfang Mai in Köln beschlossen die Anstaltsleiter, den vermeintlichen UKW-Nachfolger, dessen binäre Signale ab der Internationalen Funkausstellung (IFA) 1995 den Äther bereichern sollten, „nicht vor 1997“ einzuführen. Offizielle Begründung: Geldmangel.

Der Aufbau eines Digitalnetzes parallel zur UKW-Senderkette ist nicht aus der Portokasse zu finanzieren. Auf 500 Millionen Mark taxiert Dieter Hoff, Technischer Direktor des WDR in Köln, den Investitionsbedarf: „Es steht außer Zweifel, daß wir uns das mit den jetzigen Rundfunkgebühren, die bis Ende 1996 festgeschrieben sind, nicht leisten können.“

Buchstäblich im letzten Moment haben die Intendanten ein technisches Konzept auf Eis gelegt, das nicht einmal ansatzweise mit der real existierenden Medienszene Deutschlands und seiner Nachbarländer harmoniert. So gibt auch Frank Müller-Römer, Technischer Direktor des Bayerischen Rundfunks und Vorstandsvorsitzender des Vereins DAB-Plattform, unumwunden zu, daß die „Programmkollegen und Intendanten noch zu wenig darüber nachgedacht haben, wie DAB die Rundfunklandschaft verändern wird“.

Selbst die Medienpolitiker hatten eines übersehen: Ohne eine gründliche Überarbeitung würde DAB vielen kleinen Privatsendern die Existenzgrundlage entziehen. Zwar ist für landesweite Privatsender wie Radio Schleswig-Holstein (RSH) oder Antenne Bayern das neue Digitalsystem recht attraktiv. Denn die zu Sechserpacks gebündelten Bitströme garantieren eine Übertragungsqualität, die an jedem Ort mit der des ARD-Programms identisch ist.

Doch viel zu verlieren haben die Stadtradios. Als Gleichwellennetz ist DAB darauf ausgelegt, daß ein Autofahrer nicht mehr hinter jeder Bergkuppe am Frequenzknöpfchen drehen muß. Diese Technik mag für Rundfunkstationen mit großen Einzugsgebieten das Nonplusultra sein. Für lokale Programmanbieter ist sie eine Katastrophe: Allein in Nordrhein-Westfalen mit seinen 45 lokalen Stationen wären acht separate Übertragtmgsblöcke erforderlich, damit jeder zum Zug käme. Selbst wenn genügend Frequenzraum bereitstünde, müßten die Lokalfunker eine maßlos übertriebene technische Reichweite finanzieren, ohne diese Mehrkosten auf ihre Werbekunden umlegen zu können. Ein Einzelhändler aus Bielefeld bezahlt schließlich nicht dafür, daß man seinen Spot auch in Leverkusen hören kann.

Trotz allem ist die Einführung des digitalen Radios nicht endgültig passe. Die Gefahr, daß die Europäer ihren technischen Vorsprung gegenüber den Amerikanern verlieren könnten, macht sogar der deutschen Verteidigungsbürokratie Beine. So bekam Horst Stumkat, Fachbereichsleiter für Rundfunksender bei der Telekom, plötzlich vom Bundespostminister grünes Licht für Testreihen mit dem von Frankreich favorisierten „L-Band“ (1452 bis 1492 Megahertz), obwohl dieses hierzulande noch teilweise für militärische Zwecke genutzt wird. Ein Teil dieser Frequenzen kann kurzfristig geräumt werden.

Untersuchungen des kanadischen Rundfunks CBC geben dem L-Band wesentlich bessere Noten als den vom Fernsehen abgeknapsten VHF-Kanälen – zumal der L-Bereich ab 2007 sowieso weltweit für den Empfang ziviler Radiosender reserviert ist. Damit gäbe es – wie heute bei UKW – einen einheitlichen Weltmarkt für Empfangsgeräte.

Selbst die Infrastruktur für die Einführung von DAB im L-Band ließe sich leicht bereitstellen. Nach kanadischen Messungen muß mindestens alle 60 bis 70 Kilometer ein Sender stehen. Die Antennenmasten der digitalen Mobilfunksysteme D 1 und D2 stünden demnach bereits heute in vielen Regionen dicht genug beieinander, um das Rückgrat eines solchen Netzes zu bilden.

Nur für die ARD-Anstalten wäre diese Lösung fatal: Ihre Sendernetze sind viel zu weitmaschig. Und der milliardenteure Aufbau eines eigenen Netzes für das L-Band wäre aus den Rundfunkgebühren erst recht nicht zu finanzieren. Die Folge: Auch die ARD müßte sich an die Funktürme von Telekom, Mannesmann Mobilfunk oder des neuen – von Thyssen und Veba geplanten – E1-Netzes anhängen. Die geheiligte ARD-Autarkie wäre dahin.

Für den Verbraucher hätte das L-Band auf jeden Fall Vorteile: Weil es zwischen den Frequenzen von D- und E-Netz liegt, könnten die Hersteller von Autotelefonen ohne großen Aufwand die Radiofunktion in ihre künftigen Geräte mit einbauen und sogar beide Komponenten über dieselbe Antenne versorgen. Und weil DAB nicht auf Audiosignale beschränkt ist, könnten auch tragbare Computer und „digitale Assistenten“ auf diesem Weg Informationen empfangen.

Eine neue Anwendung ist bereits erfunden – die drahtlose Übermittlung brandaktueller Kreditkarten-Sperrlisten an den Handel.

Ulf J. Froitzheim

aus der WirtschaftsWoche 34/1993

Druckvorstufe: Heiße Kartoffel

Multimedia schafft eine neue Branche. Die Abkehr vom Papier ist vorgezeichnet.

WirtschaftsWoche 28/1993

Bewerber haben bei Hartmut Pütterich schlechte Karten. Der Ex-Unternehmensberater, heute Geschäftsführer der SKU Repro GmbH in München, ist im Gegenteil froh, wenn einer seiner Mitarbeiter geht. Das Unternehmen, das aus Originalfotos und Grafiken Druckvorlagen für Verlage und Werbeagenturen herstellt, befindet sich auf einem strammen Konsolidierungskurs. Vor drei Jahren beschäftigte Pütterich noch knapp 100 Mitarbeiter, derzeit sind es 80, Ende des Jahres werden es nur noch 70 sein.

Damit steht SKU im Vergleich noch sehr robust da. Lutz Kredel, geschäftsführender Gesellschafter der Pre Print Publishing Consulting GmbH in Berlin, kennt Reprobetriebe und Setzereien, die ihre Belegschaft mehr als halbieren mußten. „Von denen hat nie einer an Innovationen gedacht“, stöhnt der Berater, „viel zu wenige in dieser Branche wissen, wo es langgeht.“

Die Misere der Unternehmen, die früher ehrfürchtig als Repro-, Litho- und Satz-Anstalten tituliert wurden, hängt eng zusammen mit dem rasanten technischen Fortschritt, der die sogenannte Druckvorstufe obsolet macht. Seit den siebziger Jahren, als der Fotosatz den Bleisatz verdrängte, löschen Computer und Software ein handwerkliches Berufsbild nach dem anderen aus.

Setzer wurden überflüssig, weil Redaktionen und Anzeigenabteilungen ihre Texte nur noch elektronisch anliefern. Metteure mußten erst lernen, mit dem Skalpell Fotosatzfilme zu umbrechen. Heute haben sie nur noch eine Chance, wenn sie Desktop-Publishing-(DTP-) Software am Bildschirm beherrschen. Als nächstes kam der Bildscanner, der die Lithographen arbeitslos machte. Von den vielen Berufen der Druckvorstufe bleibt lediglich der Druckvorlagenhersteller übrig, der alle Arbeitsgänge beherrschen muß.

Mit Hardware und Software der neuesten Generation verschwinden nun die letzten nichtelektronischen Glieder aus der Verarbeitungskette: Die Bildvorlagen werden bereits digitalisiert angeliefert – etwa auf einer Photo-CD – und direkt ins Layoutprogramm eingespielt; der Computer speist die Daten der fertig gestalteten Seite in ein Gerät, das alle Texte und Bilder mit Hilfe eines Laserstrahls unmittelbar in die Druckplatten fräst. Der chemische Film und mehrere Arbeitsschritte entfallen.

Um die wenigen verbleibenden Arbeiten ist mittlerweile ein Verteilungskampf ausgebrochen. Die Satzstudios, die immer öfter nur noch zum Umbrechen und Gestalten bereits erfaßter Texte gebraucht werden, versuchen, mit elektronischer Bildverarbeitung Boden gutzumachen. Doch hier treffen sie bereits auf Fotolabors, die derartige Dienstleistungen ebenfalls als zukunftsträchtig erkannt haben. Die Druckereien wiederum sehen in der technischen Integration der Arbeitsschritte eine Chance, Unteraufträge auf ein Minimum zu reduzieren und alles selber zu machen.

Tuncay Genceller, Mitinhaber der Reproline Offsetreproduktionen in München, glaubt aber, daß Spezialbetriebe mit Qualitätsanspruch ihren Erfahrungsvorsprung nutzen können. Die Newcomer würden bei anspruchsvolleren Aufträgen erst mal ins Schleudern geraten. „Wenn’s bei denen schiefgeht, dürfen wir die heißen Kartoffeln aus dem Ofen holen“, so die Erfahrung von Genceller.

Auch der Berliner Berater Kredel prophezeit eine Renaissance der Qualität. Doch in der Ferne sieht er bereits eine Entwicklung auf die Branche zurollen, gegen die alles bisher Dagewesene harmlos wäre: „Aus dem technologischen Zusammenwachsen der Sektoren Computer, Verlag, Film und Telekommunikation wird eine völlig neue Medienindustrie entstehen.“ In diesem Multimedia-Zeitalter geht der Trend – so Kredel – klar weg vom Papier. Der Berliner rechnet sogar mit einer Neuauflage der längst totgesagten Bildschirmzeitung.

Obwohl diese Veränderungen nicht blitzartig hereinbrechen werden, befaßt sich SKU-Geschäftsführer Pütterich bereits mit den denkbaren Optionen. „Wir haben Riesenchancen, mit unserem Potential neue Dinge anzugehen“, glaubt der Münchner. Zu diesen Ideen gehört , die Pflege elektronischer Bildkataloge, die per Datenleitung zugänglich sind. Was den papiernahen Bereich betrifft, ist Pütterich jedoch Pessimist. Wenn der Preisdruck anhalte, komme die elektronische Arbeitsteilung mit Billiglohnlandern wie der Türkei oder Tschechischen Republik. Das koste zwar Jobs, doch die Qualität müsse darunter nicht leiden: „Die Leute sind ja auch nicht dümmer als wir.“

Ulf J. Froitzheim

Printing on Demand: Immer frisch gedruckt

Es ist immer wieder der gleiche Balanceakt bei Druckwerken, die häufig aktualisiert werden müssen: Wenn die Auflage zu klein ist, muß nachgeordert werden, ist sie zu groß, landet der Überschuß im Altpapiercontainer. Doch jetzt können Fachverlage und Unternehmen, die Preislisten und technische Anleitungen herausgeben, beliebig kleine Auflagen nach dem aktuellen Bedarf drucken. „Printing on Demand“ (PoD) wird durch neue leistungsstarke Laserdrucker möglich, die bis zu 340 Seiten pro Minute – fast sechs Seiten pro Sekunde – ausspucken. Sogar doppelseitiger DIN-A3-Druck und Farbdrucke sind möglich, und zum Schluß wird alles noch vollautomatisch gefalzt und ordentlich zusammengeheftet. Im Angebot haben derartige Drucker Siemens-Nixdorf, Kodak und Rank Xerox.

Die Oracle Corp., einer der größten Anbieter von Datenbankprogrammen, gehört zu den ersten Nutzern von PoD. Sie druckt zu jeder erdenklichen Konfiguration das exakt passende Handbuch in der gewünschten Länderversion. Nur die Manuals für das Standardprogramm werden noch auf Vorrat gedruckt.

Auch der auf Patentschriften spezialisierte Wila Verlag W. Lampl GmbH in München macht sich das Potential der neuen Technik bereits zunutze. Wila beliefert Unternehmen wie Mannesmann, Thyssen, VW und Opel regelmäßig mit sauber gedruckten Kurzfassungen aller neuen Patentanmeldungen aus den jeweils abonnierten Fachgebieten. Hätten die Universitätsbibliotheken etwas üppigere Etats, könnten demnächst auch Studenten vom Printing on Demand profitieren.

Technisch ist es überhaupt kein Problem, ganze Fachbücher und Dissertationen PoD-gerecht zu speichern; an der Universität Dortmund gibt es bereits eine Pilotinstallation. Beim dezentralen Drucken aus dem Speicher des Bibliothekscomputers gehen die Verlage nicht leer aus: Sie bekommen für jedes ausgedruckte Stück ihren Obolus. UJF

Vagabund im Plenum

Ein emeritierter Professor soll die Siemens-Mikrofonanlage im neuen Bundestag sanieren.

Gemessen an dem, was in den letzten Monaten alles danebengegangen ist, fällt die Schelte des Sachverständigen verblüffend mild aus. „So peinlich es ist“, stellt sich Professor Georg Plenge schützend vor die Urheber jenes Desasters, dessen Folgen er jetzt minimieren soll, „gegen solche Pannen ist niemand gefeit.“ Sorgsam vermeidet der emeritierte Akustikprofessor einseitige Schuldzuweisungen. Plenges Vorgehen verrät psychologisches Kalkül: Wenn der vom Bundesbauministerium bestellte Troubleshooter seinen Auftrag erfüllen will, den neuen, gläsernen Plenarsaal des Bundestages bis zum Ende der Sommerpause mit einer funktionsfähigen Lautsprecheranlage zu versehen, muß er die Kontrahenten schleunigst an einen Tisch bringen. Dies scheint ihm mit der samtweichen Verpackung seiner Kritik tatsächlich zu gelingen – niemand will zum Schluß als trotziger Verweigerer im Rampenlicht stehen.

Ohne Image-Blessuren kommt allerdings keiner der Beteiligten davon. Denn immer klarer zeichnet sich ab, daß das Versagen von elA, der über sieben Millionen Mark teuren elektroakustischen Anlage des Bonner Parlamentsneubaus, kaum anders als mit der Ignoranz der Partner zu erklären ist. Jeder rur sich auf der Suche nach dem Nonplusultra, schufen Bauherr, Architekt, Akustikplaner und Anlagenbauer ein hochkomplexes Gesamtsystem, dessen physikalische Eigenschaften keiner mehr überblicken konnte.

„Niemals zuvor ist ein so komplizierter Raum durchgerechnet worden“, so Bernd Hackner. Der Kerpener Unternehmer, der vergleichbare Lautsprecberanlagen –allerdings in kleineren Dimensionen – entwickelt, hält den neuen Plenarsaal für ein Jahrhundertprojekt, was die Akustik betrifft.

Die Abgeordneten sollten nicht nur erstmals von ihrem Sitzplatz aus ins Mikrofon sprechen können. Mittels elektronischer Effekte sollte sogar –ähnlich wie im Theater – zu hören sein, aus welher Richtung die Stimme gerade tönt,  und das bei weitgehend gläsernen Wänden, die den Schall reflektieren. Haupttummelplatz der vagabundierenden Wellen ist ausgerechnet das Hauptrednerpult. Das Mikrofon dort verarbeitet den Lärm zu ohrenbetäubenden  Rückkopplungsgeräuschen. Das Pult kann man allerdings nicht verrücken. An jeder anderen Position versperrt es den Ministern auf der Regierungsbank die Sicht auf das Plenum.

Die Audiospezialisten des Siemens-Konzerns, die sich um die Realisierung der geplanten elektroakustischen Anlage bewarben, wußten von Anfang an, daß ihnen das nötige Know-how fehlt. Die Rettung sollte aus den USA kommen. Die Münchner verpflichteten die Innovative Electronics Designs (IED) als Subunternehmer. Großzügig setzten sich die Siemens-Planer über die Tatsache hinweg, daß das Team aus Louisville in Kentucky bisher vor allem Akustikanlagen rur Sportarenen entwickelt hatte. „Diese Erfahrungen haben sie mehr oder weniger linear auf den Plenarsaal übertragen“, rügt Plenge, bis vor kurzem Abteilungsleiter am Institut für Rundfunktechnik GmbH (IRT) in München. Zudem ist ihr „Universal Digital Audio Processing System“ (Udas) in Fachkreisen nicht unumstritten. So urteilt Bernd Albers, Geschäftsführer der NDR-Beratungstochter Studio Hamburg Media Consult International GmbH (MCI): „Die amerikanische Ent wicklung ist alles andere als ausgereift.“

Doch Siemens ließ die Amerikaner fröhlich nach den Vorgaben des Akustikplaners Heinz Graner für die „richtungsbezogene Beschallung“ werkeln. Der erwünschte Stereoeffekt sollte durch eine komplexe Software für die computergesteuerte Akustikanlage erreicht werden. Durch elektronische Verzögerungen treffen die Worte des Redners aus den verschiedenen Lautsprechern in genau demselben Zeitabstand aufs Ohr des Zuhörers, als kämen sie ohne elektrische Umwege an.

Dieses Verfahren ist bei einer kleineren Zahl von Sprechstellen und in Räumen mit einfacher Geometrie Stand der Technik. Doch im Bundestag geht es um ein paar hundert Mikrofone. So etwas Komplexes hatten auch die US-Spezialisten noch nie auf die Beine gestellt.

Doch auch bei der Hardware machten Siemens und die US-Helfer alles falsch, was falsch zu machen war. Zahl, Art und Anbringung der Lautsprecher stimmen ebensowenig wie Menge und Zuordnung der Leistungsverstärker. Diese Diagnose stellt jedenfalls der Münchner Gutachter – der glaubt, daß sich derart „grobe“ Fehler ausbügeln lassen. „Selbstverständlich haben wir die Planung der Beschallungsanlage für sinnvoll gehalten“, verteidigt sich hingegen der fachlich verantwortliche Diplomingenieur Hans Sontheim von der Kölner Siemens-Zweigniederlassung treuherzig, „sonst hätten wir den Auftrg erst gar nicht angenommen.“

Nach dem Motto, daß ,,nicht sein kann, was nicht sein darf“, stürzten sich die Siemens-Leute nach der ersten öffentlichen Blamage auf die Mängel der Raumakustik des Plenarsaals. Um zu beweisen, daß der Grund für die Rückkopplungen und den Tonausfall während der Haushaltsdebatte vom 24. November nicht die elA sein konnte, ließ Siemens-Vertriebsdirektor Harald Ibach auf Kosten seiner Firma allerlei Schalldämmungsmaterial installieren. Einen Brief an die „sehr verehrte Frau Dr. Schwaetzer“ beendete er mit dem Postskriptum „…ändert nichts an der von mir gegebenen Zusage zur Wiederaufnahme des Plenarbetriebes im neuen Plenarsaal zum 1. März 1993…“. Das war am 8. Februar.

Keine drei Wochen später bekam der Kölner Manager die Quittung für sein leichtfertiges PS. In einer fingierten Debatte bewiesen zwei grölende Hundertschaften Bundestagsmitarbeiter, daß elA turbulenten Diskussionen immer noch nicht gewachsen war. Entweder war der Mann am Rednerpult nicht zu hören, oder es gab erneut ohrenzerreißende Rückkopplungen.

Mindestens bis zur Sommerpause werden sich die Abgeordneten nun mit dem Wasserwerk begnügen müssen. Zug um Zug werden im neuen Saal die ursprünglich vorgesehenen Schalldämpfer nachgerüstet, wird der Bundesadler „entdröhnt“ und vielleicht sogar ein Acrylglas-Schallsegel über dem Redner aufgehängt. Doch Plenge ist skeptisch. Er hält die Sache nur dann für heilbar, wenn die hoch über dem Redner schwebende zentrale Lautsprecherampel durch eine dezentrale Beschallung ersetzt wird. Doch dann müßte die gesamte Software umgeschrieben werden. Bis zum Ende der parlamentarischen Sommerpause ist das allerdings nicht zu schaffen.

Managementinformationssysteme: Angst vor Mitwissern

Der Widerstand des mittleren Managements gegen moderne Führungs-Software in den Unternehmen läßt nach.

Maximal fünf Tage haben die Manager der 191 Tochtergesellschaften der Henkel KGaA Zeit, dann müssen sämtliche Zahlen des abgelaufenen Verkaufsmonats in der Düsseldorfer Zentrale vorliegen.

WirtschaftsWoche 52/1992

Die Eile hat ihren Grund: Spätestens am sechsten Tag wollen Vorstände, Bereichsleiter und Controller Zugriff auf sämtliche Daten haben: Wieviel Pattex, Pritt, Pril oder Persil ist verkauft worden? Wie hoch war der Umsatz der Spanien-Filiale Henkel Iberica? Welche Vorräte lagern in Wien? Wo stockt der Absatz? Wer ist der beste Kunde?

Nicht weniger als 2000 Korrelationen kann der Computer der Konzernabteilung Planungs- und Berichtssysteme aus den vollelektronisch übermittelten ZahlenkoIonnen herausfiltern und mit alten Ergebnissen vergleichen – bis zurück zum Jahr 1985.

Was für die Düsseldorfer Waschmittel- und Klebstoffverkäufer inzwischen zur Routine geworden ist, treibt in vielen anderen Unternehmen den den EDV- und Finanzverantwortlichen noch den Schweiß auf die Stirn.

Denn bei den Managementinformationssystemen (MIS) – einem Managementinstrument, das in den USA längst alltäglich ist – haben deutsche Firmen noch großen Nachholbedarf. „Hierzulande kommen selten Systeme zum Zug, die nicht von hochdekorierten Betriebswirtschaftsprofessoren abgezeichnet worden sind“, beklagt Vertriebsleiter Peter Rump von der Geminus Software GmbH in Ratingen den mangelnden Mut deutscher Manager.

Doch inzwischen sehen Marktforscher die Programme. die in der Diktion der Anbieter mal als Executive Information System oder Enterprise Intelligence System (EIS), mal als Führungsinformationssystem (FIS) oder MIS bezeichnet werden, auch zwischen Flensburg und Füssen, Saarbrücken und Stralsund unaufhaltsam auf dem Vormarsch. Nach Analysen der International Dara Corp. (IDC) überstieg der weltweite Umsatz mit Führungsinformationssystemen 1991 die 100-Millionen-Dollar-Marke. Die Unternehmensberatung Kienbaum und Partner und die Londoner Consultinggesellschaft Business Intelligence erwarten eine Vervierfachung des Einsatzes von Chefprogrammen in Europa bis 1995. Für den deutschen Markt, der 1991 von sieben auf zehn Millionen Mark anwuchs, prognostizierten sie für das zu Ende gehende Jahr sogar eine explosionsartige Steigerung auf 18 Millionen Mark.

Mit den MIS der siebziger Jahre, die von den meisten Führungskräften als zu kompliziert und praxisfern abgelehnt wurden, hat die heute unter diesem Kürzel angebotene Software kaum noch etwas gemeinsam. „Sie liefern nicht mehr nackte Zahlen, sondern hochverdichtete Finanzinformationen,“ erklärt Olaf Tennhardt, Prokurist bei Andersen Consulting in München, den entscheidenden Fortschritt, „deshalb versetzen sie das Management in die Lage, besser und schneller auf Veränderungen zu reagieren.“ Statt dicker Stapel von Endlospapier werfen die Computer heute farbige Diagramme aus, die wichtige Trends auf den ersten Blick sichtbar machen.

Die größere Transparenz von Unternehmensdaten gefällt allerdings nicht jedem: Finanzfachleute konnten früher die Ergebnisse ihrer oftmals langwierigen Auswertungen als Herrschaftswissen behandeln. „Das Monopol der Controller wird geknackt“, so der Sony-Europa-Geschäftsführer Peter Maier. Der Chef der europäischen EDV-Aktivitäten des japanischen Konzerns: „Bei uns bilden die Geschäftsinformationen das Eigentum aller Ressortchefs. Und das zum gemeinsamen strategischen Vorteil.“

Noch größeren Widerstand als die Controller setzen altgediente Abteilungs- und Bereichsleiter den neuen Wunderwaffen entgegen. „Trotz Lippenbekenntnissen ist die neue Transparenz oft nicht wirklich erwünscht“, so der Konstanzer Professor Rolf Hichert, Gründer der Spezialsoftware-Firma MIK Gesellschaft für Management und Informatik, „die anderen sollen zwar ihre Zahlen offenlegen, die eigenen Zahlen aber gehen niemanden etwas an.“
Der MIS-Experte plädiert deshalb dafür, bei der Einführung der Systeme die Psychologie nicht zu unterschätzen und sich in die Rolle der Betroffenen zu versetzen. Die unterschwelligen Ängste vor Machtverlust oder Überforderung, darin sind sich erfahrene Anwender wie Anbieter einig, lassen Sich durch eine einfühlsame Argumentation durchaus abbauen.

Maier gibt gerne seine Erfahrungen, die er bei Sony mit entsprechendem Einfühlungsvermögen gemacht hat, und die Erfolge, die er damit eingeheimst hat, zum besten. Mittlerweile gehört er zu den gefragtesten Referenten auf europäischen MIS-Kongressen, weil viele innovationswillige Finanz- und EDV-Chefs von seinen Erfahrungen profitieren wollen.

Dazu rät auch Herbert Wurst. zuständiger Fachgebietsleiter bei der Unternehmensberatung Kienbaum in Düsseldorf: „Es gilt den Mitarbeitern das Gefühl zu vermitteln, daß sie an Wichtigkeit und Prestige gewinnen, wenn sie sich in das System einarbeiten.“ Wer das Potential der Software gut auszuschöpfen lerne, ernte dafür Respekt bei Kollegen und Vorgesetzten.

Funktionieren kann die interne Öffentlichkeitsarbeit für ein MIS allerdings nur dann, wenn mindestens ein hochrangiger Mitarbeiter dessen Einführung zu seinem persönlichen Anliegen macht. Dieser „Coach“ oder „Sponsor“ kann der Chefcontroller
sein, aber auch der Leiter eines Geschäftsbereichs.

Er muß die Mitarbeiter des Controllings und die betroffenen Abteilungsleiter Schritt für Schritt an das System heranführen. „Bei uns konnten die künftigen Anwender bereits an der Konzeption mitwirken“, erinnert sich Henkel-Planungschef und MIS-Pionier Klaus Schwarzrock. Er hatte kaum mit Akzeptanzproblemen zu kämpfen. Auch wenn das System einmal läuft, können die Betreuer die Hände nicht in den Schoß legen. So versucht Claus Lindau, im Bereich Konzernplanung und Controlling von Daimler-Benz für Berichtssysteme und EIS verantwortlich, durch regelmäßiges Feedback die Disziplin aller Beteiligten wachzuhalten: „Ohne den Sponsor würden sicher einige Datenlieferanten rasch nachlässig werden.“

Bei einem mittelständischen Unternehmen, das mit kürzeren Entscheidungswegen auskommt als ein Großkonzern wie Daimler-Benz, tut sich ein FIS-Coach da leichter. So brauchte Otto Fubel, Abteilungsleiter Finanzen bei den Köllnflockenwerken in Elmshorn, nur zwei Jahre für den Aufbau eines EDV-Systems, das die Inhaberfamilie Kölln, die Geschäftsleitung und die Abteilungsleiter jetzt mit einem exakt abgestuften Informationsangebot versorgt. In monatlichen Sitzungen projiziert Fubel vor den Chefs bunte Grafiken an die Wand, auf denen alle unternehmerisch wichtigen Entwicklungen im Nu zu erkennen sind.

„Die Inhaber hatten ihre Geschäftsergebnisse noch nie in dieser Form präsentiert bekommen“, so Fubel. 1993 will er nun auch noch die Kollegen vom Vertrieb mit einem Ableger des Systems beglücken. Dann können die Geschäftsbeziehungen zu allen Handelspartnern einzeln unter die Computerlupe genommen werden.

Wo mit MIS gearbeitet wird, ist kein Platz mehr für große Hierarchien – das Wissen verteilt sich auf eine viel breitere Basis. Die Konsequenz, so Berater Tennhardt: „Wer ein computergestütztes Informationssystem einführen will, sollte die gesamte Unternehmensorganisation neu durchdenken.“ Ein Management, das dies versäumt, mißversteht die neuen Informationssysteme als Spielzeug für den Vorstand und vergißt dabei, daß gerade die mittleren Managementebenen mit ihrer Hilfe mehr Transparenz in ihre Zahlenwerke bringen können.

Voraussetzung dafür ist allerdings die Bereitschaft der Oberen, die Kompetenzen ihrer Mitarbeiter zu erweitern und sie stärker in die Entscheidungsprozesse einzubinden – zum Gewinn für das gesamte Unternehmen. So haI Henkel-Mann Schwarzrock mit dem System „Topinfo“ positive Erfahrungen gemacht: Die Controller können sich wieder mehr ihrer eigentlichen Aufgabe zuwenden, der Analyse von Ursachen und Zusammenhängen.“

Von der naheliegenden Gefahr, daß eine Reihe von Controllern damit über überflüssig werden kann und den Arbeitsplatz verliert, will Kienbaum-Berater Wurst nichts wissen: „Sie bekommen im Gegenteil die Chance, sich höher zu qualifizieren und dann in Aufgaben tätig zu werden, die eben auch Controllingerfahrungen voraussetzen. Doch nicht nur die Arbeit der Controller wandelt sich zum Besseren. Der Konzern profitiert heute sogar von den natürlichen Rivalitäten zwischen Länder- oder Produktmanagern, die regelmäßig den Computer anzapfen: Weil sie ihre Ergebnisse untereinander vergleichen können, wächst ihre Neugier, warum der Kollege besser ist; ihr Ehrgeiz und ihre Lernbereitschaft werden angestachelt.

Eine quantitative Untersuchung, ob und wann sich die Investition in Führungsinformationssysteme amortisiert, hat allerdings noch niemand anzustellen gewagt. Am wirtschaftlichsten wäre es sicherlich, würden die Programme ihre Ausgangsdaten aus einer standardisierten, modernen Software beziehen. Allerdings ist es heute noch die Regel, daß das Analysewerkzeug auf die oft aus den sechziger Jahren stammenden Buchhaltungsprogramme aufgepfropft wird. Progressive EDV-Spezialisten wollen daher die Unternehmensdatenverarbeitung komplett modernisieren, um konsistente Datenstrukturen zu schaffen. „Nach Lean Production und Lean Management wäre jetzt Lean Computing angesagt“, so Softwareexperte Peter Rump, „die heutige Computerei ist leider alles andere als schlank.“

Ulf J. Froitzheim

Branchenstatistik: Verlierer und Sieger

Nichts ist mehr wie früher in der IT? Stimmt. Konnte man aber auch schon 1992 schreiben. Zum Beispiel im WiWo-Special zur Münchener Computermesse Systems:.

An der Spitze der EDV-Branche hat sich die Rangordnung massiv verändert.

Alten EDV-Kämpen treibt die Geschichte heute noch Tränen in die Augen: WeIch großen Klang hatte doch einst der Name Control Data. Wer mit dem Großrechner Cyber arbeiten durfte, konnte sich fast so viel darauf einbilden, als hätte man ihn an eine Cray gelassen. Doch 1985 wurde CDC, die Control Data Corp., zum Synonym für das beginnende Ende der klassischen EDV: „Branchenstatistik: Verlierer und Sieger“ weiterlesen