Inwiefern fördern soziale Medien den populistischen Diskurs? Wie weit geht die Meinungsfreiheit im Netz? Ein Gespräch mit der Politologin Ofra Klein über Algorithmen, Verantwortung und wie Rechtsextreme die Zensur bei Facebook, Twitter und Co. umgehen.
Interview: Pol Reuter
Frau Klein, Rechtspopulisten überschreiten oft die Grenze zur politischen Korrektheit. Sei es Donald Trump, der Abgeordneten mit Migrationshintergrund riet, « nach Hause » zurück zu kehren. Oder Björn Höcke, der das Holocaustmahnmal in Berlin als « Denkmal der Schande » bezeichnete. Oft rudern die Politiker nach öffentlicher Kritik aber zurück. Inwiefern handelt es sich dabei um eine bewusste Strategie?
Das kann man nicht so verallgemeinern. Die genannten Beispiele sind sehr extrem, deshalb fühlten sie sich fast gezwungen, ihre Aussagen zu relativieren. Dann könnte es sich natürlich um eine Strategie handeln, um wieder bei der Mitte der Gesellschaft zu punkten. Jedoch stehen die meisten Rechtspopulisten zu ihrer Aussage und berufen sich auf ihre Meinungsfreiheit. Geert Wilders entschuldigt sich zum Beispiel nicht.
Viele dieser Grenzüberschreitungen finden auf Facebook oder Twitter statt. Sind die sozialen Medien das neue Zuhause der Rechtspopulisten?
Das war sicherlich für lange Zeit so, aber es ist immer weniger der Fall. Rechtspopulisten werden auf den genannten Plattformen verstärkt zensiert. Die britische Partei UKIP hat dies zum Beispiel letztes Jahr behauptet. Zensur nimmt normalerweise eine von zwei Formen an. Entweder werden Posts und Seiten gelöscht oder ihre Inhalte weniger sichtbar, indem sie im Nachrichtenfeed nach unten rutschen. UKIP merkte, dass immer weniger Menschen ihre Beiträge kommentierten, weil der Algorithmus von Facebook die Beiträge der Partei nicht als wertvoll für die Nutzer einstufte. Die neo-faschistische italienische Partei Forza Nuova wurde letztes Jahr sogar von Facebook gelöscht. Das bleibt jedoch ein eher ungewöhnlicher Schritt. Normalerweise werden nur Seiten von rechtsextremen Netzwerken oder Aktivisten gelöscht, da diese extremere Positionen verteidigen.
Heißt das, dass die Plattformbetreiber mehr Verantwortung für die geteilten Inhalte übernehmen?
Sie haben da keine Wahl. In Europa nimmt die Regulierung gegen online Hasskriminalität zu. Zum Beispiel hat Deutschland 2017 mit dem NetzDG-Gesetz Plattformbetreiber dazu gezwungen, Hassreden innerhalb von 24 Stunden von ihrer Webseite zu löschen. Allerdings gibt es mehrere Probleme mit dem Gesetz.
Welche Probleme meinen Sie?
Es spielt zum Beispiel eine Rolle, in welcher Sprache der Text verfasst wurde. Falls eine Hassrede auf Englisch verfasst wurde, müssen die Betreiber diese in Deutschland löschen. Aber der Beitrag verschwindet nicht ganz: Für Nutzer in den USA bleibt er zum Beispiel noch immer sichtbar. Es ist auch nicht klar, wie Facebook und Twitter die Auswahl treffen, welche Beiträge gelöscht werden müssen und welche nicht. Dies hat zu einer Angst vor zu starker Zensur der Plattformen geführt. Human Rights Watch hat zudem davor gewarnt, dass hier ein gefährlicher Präzedenzfall geschaffen wurde. Regierungen, die die Meinungsfreiheit einschränken wollen, könnten sich auf dieses Gesetz berufen, um private Unternehmen damit zu beauftragen die Redefreiheit im Auftrag der Regierung online zu beschränken.

Die sozialen Medien haben also ausgedient?
Nicht zwingend. Wie die Politologin Léonie de Jonge feststellt, wird in Luxemburg anders über Rechtspopulisten berichtet. Es könnte sein, dass sie in den sozialen Medien ein Sprachrohr finden, was sie sonst nicht kriegen könnten.
Bei der Wahl Donald Trumps wurden die sozialen Medien oft als Sündenbock identifiziert, weil sie zu einer stärkeren Polarisierung der Gesellschaft beigetragen haben sollen. Hat sich der Diskurs von Rechtspopulisten durch das Aufkommen der sozialen Medien verändert?
Vor Twitter und Facebook benutzte nur ein Bruchteil der rechtsextremen Szene das Internet, um seine Thesen zu verbreiten. Mittlerweile sind sie quasi alle in den sozialen Medien unterwegs. Durch das Aufkommen der sozialen Medien hat sich der Diskurs im Vergleich zu den Vorjahren angepasst. Hassreden wurden von Twitter bei den US-Wahlen 2016 zum Beispiel gelöscht. Aktivisten der sogenannten Alt-Right fürchteten, dass ein Algorithmus von Twitter automatisch zur Erkennung und Löschung von Hassreden benutzt wird. Um dieser Zensur zu entgehen, haben sie deshalb begonnen, Codewörter zu benutzen. Zum Beispiel wurden schwarze Mitbürger als „Googles“ bezeichnet. Twitter wäre somit gezwungen gewesen die Namen ihrer Konkurrenz zu zensieren.
Wie kommt es, dass populistische Aussagen auf den Plattformen so viel Zuspruch erfahren?
Rechte Netzwerke nutzen vermehrt Memes [Anmerkung der Redaktion: Memes sind Bilder, Videos oder Texte, die sich schnell über das Internet verbreiten und oft humorvoller Natur sind] um sich über Minderheiten lustig zu machen. Die ADR-Politikerin Sylvie Mischel musste zum Beispiel nicht das Wort „Flüchtlinge“ in ihrem Facebook-Post nutzen; ein Foto des Außenministers mit einer Gruppe von Flüchtlingen reichte, um ihren Anhängern klarzumachen, um was es geht. Menschen merken sich Bilder besser als lange Texte, zumal wenn diese dazu noch lustig gemeint sind. Über diesen Weg können rechtsextreme Inhalte also leichter verbreitet werden.
Unter anderem die Memes stellten bei den letzten US-Präsidentschaftswahlen ein Problem für die Plattformbetreiber dar. Bilder und Videos erzeugen eine höhere Reaktionsrate, die wiederum dazu beitragen, dass mehr Menschen es sehen. Da die Algorithmen nicht öffentlich einsehbar sind, ist nicht klar, ob sich die genannten Probleme bei der nächsten Wahl wiederholen könnten.
Hat das Löschen von rechtsextremen Inhalten auf Facebook und Twitter sich überhaupt bewährt?
Die Aussagen verschwinden nicht indem sie gelöscht werden, sie verlagern sich nur. Rechtsextreme vernetzen sich mittlerweile über andere Webseiten, wo die Zensur nicht so stark ist, wie zum Beispiel Gab, 4chan oder die russische Seite VKontakte. Das Problem ist, dass ohne Zensur die Aussagen auf den Plattformen extremer werden. Die Amokläufe von Rechtsextremen in Neuseeland oder den USA wurden zum Beispiel mit diesen alternativen Plattformen in Verbindung gebracht. Es ist also schwierig einzuschätzen, ob es sinnvoll ist, rechtsextreme Positionen im öffentlichen Diskurs total auszuschließen. Die Zensur führt zu mehr Wut, die zu einer zusätzlichen Radikalisierung beitragen könnte.
Gibt es keine Alternativen zur totalen Zensur, um Hate speech zu regulieren?
Twitter versucht zukünftig, anstatt Tweets zu löschen, ihnen einen Begleittext zuzufügen, dass es sich beim Tweet um eine Hassrede handelt. Das beschränkt sich aber zurzeit nur auf Tweets von Politikern oder Regierungen. Es gibt auch Überlegungen, eine Art Aufsichtsbehörde für Facebook zu schaffen. Diese würde sich aus Moderatoren von Gruppen, Nichtregierungsorganisationen oder auch Richtern zusammensetzen. Das neue Gremium solle dann selbst entscheiden können, was zensiert gehört und was nicht. Dass Regulierung aber auch nachteilige Folgen haben kann, zeigt das besagte NetzDG-Gesetz. Es gibt leider noch keine perfekte Lösung.
Lesen Sie mehr zum Thema


