Echokammern sind nicht harmlos

Carta lässt den Nachwuchs-Kommunikationswissenschaftler Ben Thies über den „Mythos Filterblase“ sinnieren. der Digital Native vermisst die empirische Evidenz für dieses Phänomen. Der Beitrag hat eine fundierte Replik verdient, die über die 1500 Zeichen hinausgeht, die ein Kommentar bei Carta haben darf. Deshalb habe ich dort nach hier verwiesen. Meine These: Es geht nicht um Filter-Algorithmen, sondern um Menschen – die Meinungsführer in den Echokammern. Dass deren Wirken sich der EMpirie entzieht, macht es nicht irrelevant.

„Dass sie (die Filteralgorithmen) eine Gefahr für die Gesellschaft darstellen, da sie Nutzern eine ganz bestimmte Realität diktieren, kann nur dann der Fall sein, wenn wir die Gesellschaft davor als gefährdet durch ein Diktat der Funk- und Printmedien betrachten.“

Ben Thies

Lieber Ben Thies,

das ist zu kurz gesprungen. Filteralgorithmen stellen eine Gefahr für die Gesellschaft dar, aber sie diktieren den Nutzern ebenso wenig etwas, wie dies die Funk- und Printmedien konnten. Sie sind der Einstieg, ein Anfang.

Die Gefahr hängt also nicht damit zusammen, dass man seiner Filterblase nicht mehr entkommen könnte, wenn man sich einmal in ihr häuslich eingerichtet hat. Sie liegt in dem sozialpsychologischen Belohnungssystem, in das sie instabile oder verunsicherte Menschen hineinziehen. Die Metapher der Echokammer ist insofern die wichtigere und richtigere, und darum sollten wir uns auf sie konzentrieren: Die Filterblase sorgt als Positivauswahl nur für einen steten Zustrom an vermeintlichen Neuigkeiten, die einem ins Weltbild passen. Sie verhindert nicht den Zustrom an diesem Weltbild widersprechenden Nachrichten. Diese kommen durchaus noch beim Rezipienten an – allerdings meist auf Umwegen, mit entsprechenden Stille-Post-Effekten, wobei der Bias beabsichtigt sein kann oder unbewusst hineingebracht wird.

Die Resonanz in der Echokammer, die den sprichwörtlichen Bürgermeister von Wesel zum Esel macht, unterscheidet sich grundlegend von einem Aussieben des Inputs nach Nutzervorlieben. Bei Letzterem geht es nur um Aufmerksamkeitsmanagement, also eine Relevanzfilterung, bei ersterem um die Einordnung des für relevant befundenen Inputs auf einer Gut-Böse- oder einer Wahrheitsskala. Die Filterblase ist ein algorithmisches Konstrukt, die Echokammer ein menschliches Phänomen. Nicht nur per Like und Share, sondern auch mit Kommentaren etikettieren Opinion Leaders (die es immer noch innerhalb jeder sozialen Gruppe gibt) Input von bestimmten Absendern als weniger glaubwürdig oder manipulativ („Lügenpresse“).

Dadurch, dass im Gegensatz zu traditionellen Medien mit begrenztem Platz für Leser- oder Zuschauerfeedback beliebig viele Teilnehmer ihren Senf dazu abgeben und die Inhalte per Mausklick weiterverbreiten können, ist eine ganz neue Dynamik entstanden. Der Netzwerkeffekt vergrößert schnell die Reichweite von „Informationen“, die bei klassischen Medien zurecht im Recherche-, Qualitäts- und Rassismus-Filter hängenblieben. Online und offline getrennt zu denken, wäre fatal: Sobald das Echo eine kritische Masse an Gleichgesinnten suggeriert, beginnt die Diffusion ins „Real Life“; dann rotten sich die Pegidisten vor der Oper zusammen, und „besorgte Bürger“ überfallen Busse mit Flüchtlingen. Eine alte Erkenntnis bleibt wahr: Die Hemmschwelle für verbale und körperliche Gewalt sinkt, wenn die potentiellen Gewalttäter sich nicht mehr als Individuen fühlen, sondern als Teil einer Gruppe.

Weil es im akademischen Sinn des Wortes asoziale Charaktere (empathielose Egoisten, Narzissten und Psychopathen) immer gab und geben wird, hat die klassische Tageszeitungs- oder Nachrichtenmagazin-Redaktion gerade auch bei Leserbriefen sehr bewusst den Gatekeeper gespielt: Beleidigende Zuschriften und offenkundige Lügen landeten ebenso sicher im Papierkorb wie anonyme Traktate oder solche mit offensichtlich gefälschtem Absender. Das hatte nicht nur mit der presserechtlichen Verantwortung zu tun, sondern auch mit gesellschaftlichem Konsens, dass der soziale Friede ein Mindestmaß an Redlichkeit und Umgangsformen erfordert (ein Konsens, der im US-Wahlkampf beängstigend erodierte).

Diese für einen seriösen Diskurs sehr wertvolle Filterinstanz fiel in den sozialen Medien, zu denen auch die Leserforen der Onlineausgaben klassischer Verlage und Sender gehör(t)en, komplett weg – geopfert auf dem Altar einer Netzkultur, die sich irrigerweise (oder fatalerweise) an den Notwendigkeiten in unfreien Gesellschaften orientierte, in denen es gefährlich ist, seine Meinung öffentlich zu sagen. Das Schicksal eines Rāʾif Badawī droht hier niemandem, und Deutschland ist auch nicht die Türkei.

Folge dieses durchaus gut gemeinten Wegfalls sozialer Korrektive: Vertreter extremer Ideologien und Anhänger wahnhafter Ideen (Reptiloiden, Chemtrails, Flat Earth Movement, „Firma“ Deutschland etc.) fanden im Schutz der Anonymität endlich Ihresgleichen. Nicht nur das. Es gab nun auch einen funktionierenden Business Case für Manipulateure, die es verstehen, mittels Sockenpuppen und Bots die Lautstärke des verzerrten Echos enorm zu verstärken und latente Paranoia in manifeste zu verwandeln, die sie nur noch auf Sündenböcke ihrer Wahl zu projizieren brauchen. Wer das alles auch „nach Trump“ noch auf die leichte Schulter nimmt, stelle sich nur einmal vor, was für ein Dorado das Web heute einem Goebbels oder Mielke böte. Oder dem gelernten Geheimdienstler Putin bietet.

Das Infame ist, dass diese Manipulation für ihre Opfer einen hohen Belohnungswert hat: Scheinbar werden sie mit ihren Ängsten und Ressentiments nicht nur ernst genommen, sondern auch noch im Glauben bestärkt, sie hätten Recht. Wurden sie bisher von den Vernünftigen in der Gesellschaft marginalisiert („Du immer mit Deinen Hirngespinsten, geh mal zum Arzt“), fühlen sie sich durch die positiven Rückkopplungsschleifen als Teil einer alles besser wissenden Noch-Minderheit oder einer schweigenden Mehrheit, die von „denen da oben“ ausgenutzt wird.

Diese Effekte entziehen sich natürlich der Empirie, denn das Forschungsobjekt ist intransparent. Man müsste die Akteure identifizieren, die echten wie die virtuellen, allein schon weil die Zahl der vermeintlichen Teilnehmer regelmäßig höher ist als die der dahinter stehenden Menschen. Man müsste Interviews mit diesen realen Personen führen und sowohl quantitativ als auch qualitativ den Beitrag und Einfluss fingierter Personae untersuchen. Mir fällt weder technisch noch sozialwissenschaftlich eine Methode ein, mit der man hier valide Messungen anstellen könnte. Wir haben hier wirklich das Problem, dass man Thesen weder verifizieren noch falsifizieren kann – es sei denn, jemand entwickelt eine forensische KI-Applikation mit belegbarer Zuverlässigkeit.

„Ich würde jedoch lieber das Individuum als letzte Filterinstanz betrachten.“

Das würde wohl jeder gern. Nur ist die Weltgeschichte voll von Beispielen, dass die Filterinstanz oft überfordert und manipulierbar ist. Deshalb braucht es journalistische Gatekeeper, die genug Ressourcen für gründliche Recherche bekommen, integer sind und das auch einem breiten Publikum vermitteln können – und natürlich ein Nebeneinander von Gatekeepern unterschiedlicher politischer Couleur. Wer noch Zweifel hat, dass es gute, wehrhafte, standhafte Journalisten braucht und nicht nur Clickbait-SEO-Contentmanager, schaue sich in der ZDF-Mediathek die gestrige Aspekte-Sendung an, co-moderiert von Can Dündar (auf Türkisch mit deutschen Untertiteln), deshalb auch zur Weiterleitung an türkische Bekannte, die vielleicht keine Stammzuschauer von Aspekte sind und wirklich etwas verpasst haben. Höhepunkt: Dündar interviewt Márton Gergely aus der Népszabadság-Chefredaktion.

Sie sind der oder die 3514. Leser/in dieses Beitrags.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert