Hass im Netz – kritische Gedanken zu Ingrid Brodnigs Buch

Ingrid Brodnig hat mit Hass im Netz ein interessantes Buch geschrieben, das zeigt, wie Menschen auf erhöhte Komplexität, die sie frustriert, reagieren können (1). Nach der Lektüre der Buches wird mir vieles klar, z.B. der Überdruss, den einige meiner Freunde Facebook entgegenbringen oder warum das Thema «Echokammer» einen derartigen Boom erlebt. Allen, die in Social Media unterwegs sind, ist das Buch wärmstens empfohlen.

Mir gefällt Ingrid Brodnigs Schreibstil. Sie versteht es, den Stoff und ihr Anliegen verständlich zu präsentieren, weil sie ihre Erklärungen so anordnet, dass man stets weiss, worauf sie hinauswill.

Im Folgenden notiere ich einige kritische Gedanken, die ich mir bei der Lektüre von Brodnigs Buch gemacht habe. Das ist also keine Rezension.

Echokammern existieren

Ich habe hier schon öfters Filterblasen und Echokammern thematisiert, z.B. im Oktober 2016 in Ist Poppers Traum wirklich in Gefahr?  oder 2013 in Unsere Filterblasen sind schlecht durchlüftet  und den Standpunkt vertreten, dass Echokammern nicht neu sind. Wer z.B. in den 30er Jahren seine fremdenfeindliche Einstellung mit anderen teilen wollte, besuchte einfach die einschlägigen Versammlungen und abonnierte entsprechende Zeitungen. Das genügte, um eine Mehrheit zu gewinnen.

In Hinblick auf Facebook habe ich Brodnig den Hinweis auf Seiten zu verdanken. Facebook-Seiten spielen für mich eine untergeordnete Rolle und daher habe ich sie in meinen Überlegungen zu Echokammern nicht speziell berücksichtigt. Brodnig erzählt von Seiten, die entweder voller Hasskommentare sind, oder die eben als Echokammern dienen, indem dort alle einander bestätigen. Offenbar gibt es Menschen, die mit Absicht solche Seiten suchen und frequentieren. So gesehen sind die Seiten wie Reusen, mit denen die Weltmeere ausgelegt werden. Klar, dass dann nach kurzer Zeit fast alle Fische in einer Reuse gefangen sind. Da hat Brodnig durchaus recht, wenn sie glaubt, dass solche Seiten und – noch effizienter – Facebook-Gruppen Gesellschaften fragmentieren können.

Warum fühlen sich Menschen von zwielichtigen Gemeinschaften angezogen?

Narzissmus und Echo von Placido Costanzi. (2)

Interessant ist die Motivation, die Menschen umtreibt, ihresgleichen in solchen Seiten und Gruppen zu suchen. Facebook-Seiten sind immer Verkaufsinstrumente. Meistens werden sie von Unternehmen betrieben, die dort für ihre Produkte werben. Auch eine Seite, die eine bestimmte politische oder gesellschaftliche Überzeugung vertritt, wirbt dafür und will möglichst viele Besucher für ihre Überzeugung gewinnen. Im Moment halte ich mich in Südostasien auf – Bangkok, Kuala Lumpur, Ho-Chi-Minh-Stadt, George Town. Beim Durchlaufen dieser Städte werde ich laufend von Strassenhändlern und Marktschreiern mit irgendwelchen Angeboten angegangen. Dieses Werben ist viel direkter und lauter als das Werben der Seiten in Facebook. Trotzdem widerstehen die Touristen den Angeboten. Man kann ja nicht an jeder Ecke eine Fussmassage machen lassen. Die passive Werbung der Facebook-Seiten hingegen scheint zuweilen eine enorme Anziehung zu haben. Warum?

Brodnig bedient sich zur Erklärung des Confirmation Bias, über den ich hier schon verschiedentlich geschrieben habe. Menschen haben die Tendenz, nur nach Hinweisen zu suchen, die ihre Meinung bestätigen. Das kann dann mitunter zu Wahrnehmungsverzerrungen und Entscheidungsfehlern führen, wenn die eine Überzeugung schon fest etabliert ist. Wird sie z.B. in einer Echokammer bestätigt, führt dies zu einem positiven Gefühl und Gefühle sind bekanntlich ein starker Motivator.

Zum Bild von Constazi: Die Bestätigung, die Menschen in Echokammern suchen, hat auch etwas mit Narzissmus zu tun. Der Körper und die Gestalt der Echo ist vergänglich, einzig und allein ihre Stimme und ihre Echorufe bleiben auf ewig. Bei Narzissus löst sich seine Gestalt, ähnlich wie bei Echo, auf. Seine Schönheit verschwindet und bleib nur in der Blume der Narzisse erhalten.

Komplexitätsreduktion mit horizontaler Flucht und Zentralhypothese

Die Ablehnung oder gar das Übersehen von Fakten, die gegen meine Überzeugung sprechen, ist eine Konsequenz des Confirmation Bias. Brodnig belegt sie mit der separaten Bezeichnung «Disconfirmation Bias». Ein alltägliches Beispiel dafür habe ich 2011 in einem Artikel beschrieben, der mit Was ist an der Welt falsch, wenn sie sich nicht gemäss meiner Hypothese verhält? überschrieben ist. Wer sich eine Zentralhypothese zurechtlegt, ändert diese auch dann nicht gern, wenn die Fakten eindeutig dagegen sprechen. Dietrich Dörner spricht in diesem Zusammenhang von «horizontaler Flucht», wenn wir uns in ein überschaubares Detail zurückziehen (3).

Komplexe und nicht vollständig durchschaubare Systeme erzeugen ein unbehagliches Gefühl von Inkompetenz. Eine (festgefahrene, weil anscheinend oft bestätigte) Überzeugung ist in diesem Fall etwas Feines. Sie reduziert mit einem Schlag die Komplexität und damit mein schlechtes Gefühl. Alle, die meine tausendmal bestätigte Überzeugung zu widerlegen versuchen, müssen mundtot gemacht werden, sonst kommt nur wieder Unsicherheit und Unordnung in mein komplexitätsreduziertes Leben. Das ist eine Erklärung für Hasskommentare und Fakenews.

Ernsthafte Themen gehören nicht auf Facebook

Eine andere Frage, die sich mir durch die Lektüre von Brodnigs Buch erschlossen hat, ist die zunehmende Abneigung gegen Facebook. Einige meiner Freunde haben sich bereits von Facebook verabschiedet, was ich nicht verstehen konnte, da ich Facebook vornehmlich als «yellow press» verstehe, also als relativ niveauloses Medium, dessen Hauptzweck darin besteht, den Freunden mitzuteilen, was man die ganze Zeit so macht und wie es einem geht. Früher erhielt ich Ende Jahr von zahlreichen Freunden sogenannte «Weihnachtsbriefe» in denen sie auf mehreren Seiten das Jahr zusammenfassten und erzählten, wo sie in den Ferien waren und welches Kind eingeschult wurde. Wenn ich von zehn Freunden einen je 20seitigen Brief erhielt, war die Adventslektüre gesetzt. Heute lässt es sich mit Facebook auf das Jahr verteilen und erst noch mit grösster Aktualität versehen.

Leider stellen viele meiner Freunde kontroverse Themen in Facebook zur Diskussion, obwohl es dazu eigentlich denkbar ungeeignet ist. Immer wieder wollen sich Menschen mit mir vernetzen, die mich nicht persönlich kennen und sich wahrscheinlich über meine Reisedokumentationen und privaten Fotos eher langweilen. Dafür erhalte ich von ihnen interessante Links, Gedanken  und Hinweise geteilt, die ich aber eigentlich lieber auf Twitter sähe. Solche Meldungen fordern auf Facebook Hasskommentare geradezu heraus, weil die Kommentarfunktion von Facebook dazu geeignet ist. Auf einen Tweet kann natürlich auch gehässig reagiert werden, da aber Antworttweets nicht in einem Thread zusammengefasst sind, fallen sie viel weniger auf.

Der böse Facebook-Algorithmus, der keiner ist

Brodnig räumt dem intransparenten Facebook-Algorithmus relativ viel Raum ein. Leider kann auch sie ihn nicht zufriedenstellend erklären. Offenbar werden Beiträge favorisiert, die viele Likes und viele Kommentare haben. Wenn also in meiner Timeline auf einen Artikel verwiesen wird – sagen wir «Mondbeobachtungen führen zu Autismus» – dann erhält dieser Eintrag Hasskommentare von Mondsüchtigen und Likes von denjenigen, die schon immer wussten, dass die Mondgaffer unser Leben bedrohen. Je mehr User verschiedener Meinungen sich zum Artikel äussern, desto höher die Wahrscheinlichkeit, dass der Artikel in meiner Timeline auftaucht. Solange ein Beitrag nicht auf einer Seite oder in einer Gruppe/Community gemacht wird, die als Echokammer oder gar als Echobunker genutzt wird, besteht meines Erachtens weniger Gefahr einer Isolierung.

Vom Namen des orthodoxen Muslim Al-Chwarizmi (hier auf einer russischen Briefmarke aus den 80er Jahren) leitet sich die Bezeichnung «Algorithmus» ab.

Zum Bild aus wikimedia: Al-Chwarizmis Hauptwerk Algoritmi de numero Indorum führte um 800 n. Chr. die Null aus dem indischen in das arabische Zahlensystem ein, das in Europa erst ab 1500 Verwendung fand. Die Zeit des Übergangs von den römischen zu den arabischen Zahlen war durch Hasskommentare und Fake News geprägt.

In ihrem Buch zitiert Brodnig den Schöpfer des Begriffs „Filterblase“, Eli Pariser (himself). Der gemässigte Linke hatte auf Facebook angeblich sowohl gleichgesinnte als auch Freunde mit eher konservativer Meinung, weil er gerne ab und zu abweichende Meinungen liest. Allerdings habe er naturgemäss die linken Meinungen öfters gelikt, worauf die Beiträge seiner konservativen Freunde nach und nach aus seiner Timeline verschwunden seien.

Der Freundeskreis ist zu heterogen, um sterilisiert werden zu können

Auch auf Facebook ist ein Freundeskreis niemals derart homogen, wie es Pariser hier voraussetzt. Ein «organisch gewachsener» Freundeskreis ist sehr heterogen. Er besteht aus Arbeitskollegen, Verwandten, Zufallsbekanntschaften, Gleichgesinnten, etc. Und diese «Gleichgesinnten», ach Gott! Am meisten (streitige) Diskussionen habe ich ja beinahe mit ihnen. Expertenstreit, nennt sich das.

Solange der Facebook-Algorithmus nicht wirklich verstanden ist, tue ich mich schwer, irgendwelche Konsequenzen zu diskutieren. Ich bin der Meinung, dass es sich nicht eigentlich um einen Algorithmus handelt, denn ein Algorithmus ist ein festgeschriebenes Rezept, das mit Sicherheit zu einem gewünschten Resultat führt. Der sog. Facebook-Algorithmus ist weder fest noch gibt es ein definiertes gewünschtes Resultat. Facebook schraubt sowohl an Algorithmus als auch an seinen Wunschvorstellungen herum. Sie ändern vielleicht wöchentlich.

Facebook wird vor allem vorgeworfen, dass der User keine Möglichkeit hat, den Algorithmus auf seine Bedürfnisse anzupassen (dazu müsste ja zuerst ein feststehender existieren). Manchmal gibt es Ansätze, mit denen Facebook versucht, den User vermehrt einzubinden. So will Facebook Massnahmen gegen Fake News einführen (4). Nutzer sollen in ihrer Timeline unter anderem deutliche Warnhinweise angezeigt bekommen, wenn sie auf Falschmeldungen stossen. Diese Warnhinweise basieren auf Meldungen der User selber. Das wirft dann z.B. die Frage auf, ob «seriöse Beiträge» darunter leiden könnten, dass Nutzer sie melden, weil sie nicht in ihr Weltbild passen. Schliesslich wird die Mehrheit der Beiträge als «Fake News» gekennzeichnet sein.

Was kann man tun?

Brodnig schlägt verschiedene Taktiken gegen Trolls, Glaubenskrieger und Fake News vor, von Ignorieren bis hin zu gerichtlichem Vorgehen.

Quelle: pixabay

In Eingestürtze Brücken und verdampftes Wasser habe ich 2009 ein soziales System, in welchem Meinungen und Überzeugungen aufeinanderprallen, mit kochendem Wasser verglichen. Der Zusammenhang der Flüssigkeit geht verloren, sie wandelt sich in Dampf, den man auffangen und damit eine Turbine betreiben kann. Eine hasserfüllte Gesellschaft kocht. Ihr Zusammenhang geht verloren und sie erfährt einen Phasenübergang.

Social Media entsprechen in der Metapher der Kochplatte und der Pfanne, nicht aber der Energie, die es braucht, um das Wasser zum Kochen zu bringen. Der gefährliche Trend, in Politik und Gesellschaft, Komplexität durch reduktive Hypothesenbildung und Ablehnung widersprüchlicher Fakten zu reduzieren, hat nichts mit SoMe, Web oder gar dem Internet zu tun (viele Autoren vermischen oft die drei Begriffe in unzulässiger Weise; das Web und das Internet sind zwei verschiedene Dinge!).

Geschlossene Behälter mit kochendem Wasser können explodieren, wenn der Dampf nicht abgeleitet wird. In Gesellschaften mit erhöhter Bestätigungs- und Fragmentierungsdynamik steigt das Risiko kriegerischer Konflikte. Es wäre der erste Komplexitätskrieg. Ob es möglich ist, die überschüssige Energie, die in diesem Gesellschaftszustand steckt, abzuleiten und positiv zu nutzen? Ich könnte mir ein neues gesellschaftliches Engagement vorstellen mit dem Ziel, die Energie von Hass und Fundamentalismus aufzufangen und zu nutzen. Das wäre echte Friedensarbeit! Könnte es sein, dass Initiativen, wie u.a. www.euforia.org und http://www.impacthub.net/ in diese Richtung gehen?

 

(1) Ingrid Brodnig. Hass im Netz – Was wir gegen Hetze, Mobbing und Lügen tun können. Brandstätter Verlag 2016.
ISBN 978-3-7106-0035-7

(2) https://en.wikipedia.org/wiki/Placido_Costanzi

(3) Dietrich Dörner, Die Logik des Misslingens – Strategisches Denken in komplexen Situationen. Ro ro ro 2003.
ISBN:  978-3-499-61578-8

(4) Facebook markiert Fake News jetzt auch in Deutschlandtagesschau.de vom 15.1.2017