Das Internet hat im Prinzip sehr viel menschliche Nähe geschaffen. Wir können heute digital so einfach und so direkt miteinander kommunizieren wie noch nie. Man könnte meinen, dass wir darum heute viel netter im Umgang miteinander sind — wenn wir mit oder über andere Menschen sprechen können, sollten wir das ja eigentlich bedacht und mit Wohlwollen tun. Das lernen wir ja schon im frühen Kindesalter: Sei nett zu anderen.
Doch die Realität sieht leider allzu oft ganz anders aus. So, wie das Internet sich weltweit verbreitete, traten auch neue Formen von Online-Hass einen weltweiten Siegeszug an1. Hate Speech (Äusserungen, in denen Individuen oder Gruppen als hassenswert dargestellt werden2) greift um sich; mittels Cyber-Mobbing werden Menschen systematisch fertig gemacht; Radikalisierung und Mobilisierung in und durch Hassideologien, von Rechtsextremismus bis Islamismus, findet online im Schleudergang statt.
An diese Zustände haben wir uns mittlerweile mehr oder weniger gewöhnt. Online-Hass ist für Alltag; eine Art “Nebenwirkung” der digitalen weltweiten Vernetzung. Wir haben akzeptiert, dass das sprichwörtliche Surfen im Internet heute oft ein Waten durch endlose Hasskloaken bedeutet.
Doch wir dürfen diese Zustände nicht hinnehmen, so resigniert und entmutigt wir auch sein mögen. Hass richtet sich nämlich immer gegen Menschen — Menschen, die als Empfänger*innen von Online-Hass entwürdigt und ausgegrenzt, in ihrer geistigen und körperlichen Unversehrtheit bedroht, oder ganz direkt psychisch und physisch angegriffen werden. Die direkte Kehrseite von Hass ist Leid. Der Kampf gegen Hass ist eine der obersten Prioritäten der aufgeklärten Gesellschaft.
Welche Waffen sind in diesem Kampf wirksam? Es gibt grundsätzlich zahlreiche einzelne Massnahmen und Methoden, die eingesetzt werden können, um Online-Hass in der ein oder anderen Form zu mildern. In diesem Text möchte ich aber sprichwörtlich herauszoomen und aus der Vogelperspektive zwei grundsätzliche Stossrichtungen für den Umgang mit jener Form von Online-Hass, die moralisch verwerflich, aber nicht direkt illegal ist, besprechen: Deplatforming und Counterspeech. Beide Ansätze können sehr wirksam sein, aber sie haben beide auch praktische Nachteile.
Strategie 1: Deplatforming — Hass keine Bühne bieten
Wenn Menschen, die auf einer Online-Plattform Hass verbreiten, von der Plattform verbannt werden, können sie auch keinen Hass mehr auf der Plattform verbreiten. Mit den Verbreiter*innen von Hass verschwindet auch der Hass an sich. Das ist die Grundidee des sogenannten “Deplatforming”, dem Sperren oder Löschen von Nutzer*innen, die Hass verbreiten.
Deplatforming klingt nach einer rabiaten Methode, und sie ist es auch. Menschen, die Hass verbreiten, direkt die Möglichkeit zu nehmen, mitzudiskutieren, ist ein weitreichender Eingriff, der auch freie Meinungsäusserung zumindest indirekt betrifft. Aber die Brechstange Deplatforming hat sich in der Vergangenheit als durchaus wirksam gezeigt, um die Verbreitung von Hassideologien zu verlangsamen. Das wohl beste Beispiel hierfür ist die islamistische Terrororganisation ISIS.
ISIS unterhielt in den 2010er Jahren ein weltweites Propagandanetz, das sich auch Social Media-Plattformen wie Twitter und Facebook zunutze machte. Mit Tausenden von Nutzer*innen-Profilen, Seiten und Gruppen konnten ISIS-Angehörige und -Sympathisant*innen Millionen von Menschen mit ihrer Hasspropaganda erreichen und viele von ihnen rekrutieren. Auf Druck der US-Regierung begannen Social Media-Betreiber mit der Zeit, ISIS-Konten systematisch zu sperren und zu löschen. Die Wirkung dieser grossangelegten Deplatforming-Aktion war unverkennbar: Innerhalb weniger Monate verstummten die ISIS-Hassbotschaften, und sie kehrten nicht mehr zurück3 4.
Es gibt auch jenseits von ISIS Indizien, dass Deplatforming eine wirksame Strategie sein kann. Wenn zum Beispiel rechtsextreme Nutzer*innen ihre Hassvideos nicht mehr auf YouTube veröffentlichen können, suchen sie sich zwar alternative Plattformen, auf denen sie ihrem Hass weiterhin frönen können. Doch sie erreichen damit ein deutlich kleineres Publikum und richten entsprechend weniger Schaden an5.
Soweit, so vielversprechend: Deplatforming ist eine potenziell sehr wirksame Intervention, die die Verbreitungsketten von Hass erfolgreich unterbinden kann. Doch Deplatforming hat auch mindestens zwei gewichtige Nachteile.
Erstens birgt Deplatforming das Risiko, dass Online-Hass auf grossen Plattformen zwar weniger sichtbar wird, dafür aber im Hintergrund intensiv weiterkocht. Wenn Hass auf einer bestimmten Plattform infolge von Deplatforming abnimmt, bedeutet das nämlich nicht, dass die Individuen und Gruppen, die den Hass verbreiten und darum verstossen wurden, ihr Weltbild abgelegt haben. Im Gegenteil: Hass-Ökosysteme im Internet sind ausgesprochen resilient und anpassungsfähig6. Hassgruppen kehren mit neuen Konten auf die Plattformen zurück und passen ihre Rhetorik an, um unter dem Radar zu fliegen. Oder sie weichen auf alternative Plattformen aus, auf denen das Publikum zwar kleiner ist, wo aber die Radikalisierung und die ideologische Rekrutierung viel intensiver und schneller vonstatten geht. Auf alternativen Plattformen, die Hassgruppen und -ideologien als Rückzugsorte dienen, dreht die Hassspirale kumulativ immer stärker und stärker7.
Der zweite Nachteil von Deplatforming ist, dass überhaupt nicht klar ist, wer das Deplatforming wann und wie betreibt. Gegenwärtig ist Deplatforming im Wesentlichen eine unilaterale Hauruck-Übung der grossen Plattformbetreiber, die erst dann durchgreifen, wenn der öffentliche Druck zu gross wird und sie schlechte PR vermeiden wollen. Doch Facebook, YouTube und Co. — private, profitorientierte Mega-Unternehmen — entscheiden in keiner Weise demokratisch legitimiert, wann Nutzer*innen-Konten, Gruppen und Seiten gelöscht werden. Es sind private Entscheidungen privater Unternehmen. Deplatforming hat darum mehr als nur einen Beigeschmack von Willkür.
Strategie 2: Counterspeech — Hass nicht unwidersprochen lassen
Das beste Mittel gegen schlechte Argumente sind gute Argumente. Das ist die Grundidee des sogenannten “Counterspeech”: Gezielte Gegenrede gegen Hass, die den Hass als die irrationale und moralisch verwerfliche Ansicht und Weltsicht, die sie ist, entlarven soll.
Wenn auch der Begriff Counterspeech eine eher neue Wortkreation ist, ist Counterspeech an sich etwas Alltägliches. In einem gewissen Sinn üben wir uns nämlich alle in Counterspeech, wenn wir unsere Ablehnung von und unsere Kritik an Hass öffentlich kundtun. In einem engeren Sinn bedeutet Counterspeech, dass hasserfüllte Äusserungen nicht bloss kritisch abgelehnt, sondern auf einer argumentativen Ebene entkräftet werden. Dem Hassnarrativ wird ein alternatives, inhaltlich überzeugenderes Narrativ gegenübergestellt.
Counterspeech hat eine potenziellen zweifachen Nutzen8. Einerseits werden die Absender*innen von Hass direkt angesprochen (z.B., wenn man auf einen Faceboo-Post von Person A direkt mit einem Kommentar reagiert), was sie im besten Fall zu einem Umdenken bewegt. Andererseits ist Counterspeech auch ein wichtiges inhaltliches und symbolisches Signal an das breite schweigende Publikum, das die Hassbotschaften passiv mitempfängt. Indem die schweigende und vielleicht unentschlossene Mehrheit sieht, dass bestimmte Formen von Hass inhaltlich und moralisch falsch sind, werden die spezifischen Hassbotschaften von der schweigenden Mehrheit eher abgelehnt. Das hat gesamthaft den Effekt, dass Hass nicht normalisiert wird: Indem wir Hass mit Counterspeech widersprechen, machen wir klar, dass Hass inakzeptabel ist.
Die Forschung zu Counterspeech ist noch jung und die Evidenz zur Frage der Wirksamkeit noch rar. In einer grösseren Studie hat sich aber gezeigt, dass empathie-basiertes Counterspeech sehr wirksam sein kann9: Wenn Counterspeech auf die Opfer des Hasses fokussiert und versucht, klar zu machen, dass diese wegen des Hasses leiden, lassen sich die Absender*innen der Hassbotschaften in ihrer Meinung umstimmen. Empathie-basiertes Counterspeech baut damit also die sogenannte Entmenschlichung10 ab: Indem wir mittels Counterspeech aufzeigen, dass die Menschen, gegen die sich Hass richtet, eben Menschen sind, nimmt Hass gegen sie ab.
Counterspeech ist rein theoretisch der Königsweg im Kampf gegen Hass: Wir überzeugen Menschen mit rationalen Argumenten, von Hass abzusehen. Doch dieser Ansatz hat einen grossen Nachteil: Es ist unklar, wer genau sich in Counterspeech üben soll.
Die idealisierte Vorstellung, die bei der Counterspeech-Strategie mitschwingt, ist, dass wir als Zivilgesellschaft Hass nicht einfach hinnehmen, sondern ihm aktiv widersprechen und uns mit den Opfern solidarisieren müssen. Als Wunschvorstellung ist ein solches Engagement natürlich begrüssenswert. Das Problem ist, dass mit einem so verstandenen Ansatz von Counterspeech nicht sichergestellt werden kann, dass Counterspeech auch wirklich dann und dort zum Einsatz kommt, wo es benötigt wird. Wir können zwar theoretisch postulieren, dass jede und jeder von uns die moralische Pflicht hat, Hass nicht unwidersprochen zu lassen. Aber wir können natürlich nicht tatsächlich einfordern, dass jede und jeder von uns täglich koordiniert eine Stunde lang Counterspeech betreibt.
Counterspeech ist potenziell wirksamer und nachhaltiger als Deplatforming. Doch Counterspeech zeitig dann und nur dann einen nachhaltigen positiven Effekt, wenn Counterspeech systematisch anstatt nur punktuell im Rahmen einzelner freiwilliger zivilgesellschaftlicher Aktionen eingesetzt wird.
Eine Frage der Strukturen — und der Regulierung
Sowohl Deplatforming als auch Counterspeech können wertvolle Werkzeuge im Kampf gegen Online-Hass sein. Aber es sind Werkzeuge, die nur dann nachhaltig wirken, wenn sie demokratisch legitimiert sind und systematisch eingesetzt werden. Wir können uns nicht auf die willkürlichen freiwilligen Eingriffe der Plattformbetreiber verlassen, und wir können nicht verlangen, dass die Zivilgesellschaft sich aus eigener Kraft und ohne Unterstützung gegen die Welle an Online-Hass stemmt. Der Kampf gegen Online-Hass muss politisch koordiniert stattfinden, und zwar auf mindestens zwei Ebenen: Über Unterstützung für Organisationen, die Online-Hass bekämpfen, und über Regulierung von Social Media Plattformen.
Es ist wichtig und richtig, dass sich die Zivilgesellschaft im Kampf gegen Online-Hass engagiert, nicht zuletzt in Form von Counterspeech. Dieses Engagement muss aber in Form öffentlicher finanzieller Unterstützung verstetigt werden. Online-Hass ist strukturell verankert, und wir müssen enstprechend Strukturen gegen den Online-Hass schaffen. Ein wirksames Einstehen gegen Online-Hass kann kein Hobby, kann nicht reine Freiwilligenarbeit sein.
Um Online-Hass wirksam zu bekämpfen, müssen wir auch die grossen Plattformbetreiber stärker regulieren. Die Virulenz von Online-Hass hat wesentlich mit der heutigen Plattform-zentrierten Architektur des Internets zu tun. Die Plattformen sind nicht schuld an der grundsätzlichen Existenz von Hass — Hass gab es natürlich auch lange vor dem Internet — , aber sie bieten einen digitalen Nährboden und einen potenten Vektor für Hass. Wenn wir die Plattformbetreiber nicht über Regulierung dazu bringen, das Problem an der Wurzel zu packen, bleibt der Kampf gegen Online-Hass blosses Reagieren auf bereits angerichteten Schaden.
Die Plattformbetreiber müssen dazu verpflichtet werden, ihr grosses technologisches Know-how systematisch und transparent für die Reduktion von Hass auf ihren Plattformen einzusetzen. Zum Beispiel, indem bestimmte Formen von Counterspeech automatisiert generiert und eingefügt werden, wenn ein*e Nutzer*in Hassrede postet. Wenn die Plattformbetreiber es schaffen, uns automatisiert auf uns zugeschnittene Werbung anzuzeigen und damit Milliarden zu verdienen, dann schaffen sie es auch, Hass automatisiert mit Counterspeech zu begegnen.
Keipi, Teo, Matti Näsi, Atte Oksanen, and Pekka Räsänen. “The Rise of Online Hate.” In Online Hate and Harmful Content. Routledge, 2016. https://www.taylorfrancis.com/chapters/oa-mono/10.4324/9781315628370-4/rise-online-hate-teo-keipi-matti-n%C3%A4si-atte-oksanen-pekka-r%C3%A4s%C3%A4nen
Howard, Jeffrey W. “Free Speech and Hate Speech.” Annual Review of Political Science 22, no. 1 (2019): 93–109. https://doi.org/10.1146/annurev-polisci-051517-012343.
Berger, J.M., and Heather Perez. “The Islamic State’s Diminishing Returns on Twitter: How Suspensions Are Limiting the Social Networks of English-Speaking ISIS Supporters.” Program on Extremism. Washington, D.C.: George Washington University, 2016. https://extremism.gwu.edu/sites/g/files/zaxdzs2191/f/downloads/JMB%20Diminishing%20Returns.pdf.
Conway, Maura, Moign Khawaja, Suraj Lakhani, Jeremy Reffin, Andrew Robertson, and David Weir. “Disrupting Daesh: Measuring Takedown of Online Terrorist Material and Its Impacts.” Studies in Conflict & Terrorism 42, no. 1–2 (February 1, 2019): 141–60. https://doi.org/10.1080/1057610X.2018.1513984.
Rauchfleisch, Adrian, and Jonas Kaiser. “Deplatforming the Far-Right: An Analysis of YouTube and BitChute.” SSRN Scholarly Paper. Rochester, NY: Social Science Research Network, June 15, 2021. https://doi.org/10.2139/ssrn.3867818.
Johnson, N. F., R. Leahy, N. Johnson Restrepo, N. Velasquez, M. Zheng, P. Manrique, P. Devkota, and S. Wuchty. “Hidden Resilience and Adaptive Dynamics of the Global Online Hate Ecology.” Nature 573, no. 7773 (September 2019): 261–65. https://doi.org/10.1038/s41586-019-1494-7.
Mathew, Binny, Anurag Illendula, Punyajoy Saha, Soumya Sarkar, Pawan Goyal, and Animesh Mukherjee. “Hate Begets Hate: A Temporal Study of Hate Speech.” Proceedings of the ACM on Human-Computer Interaction 4, no. CSCW2 (October 14, 2020): 92:1-92:24. https://doi.org/10.1145/3415163.
Buerger, Catherine, and Lucas Wright. “Counterspeech: A Literature Review.” SSRN Scholarly Paper. Rochester, NY: Social Science Research Network, November 19, 2019. https://doi.org/10.2139/ssrn.3829816.
Hangartner, Dominik, Gloria Gennaro, Sary Alasiri, Nicholas Bahrich, Alexandra Bornhoft, Joseph Boucher, Buket Buse Demirci, et al. “Empathy-Based Counterspeech Can Reduce Racist Hate Speech in a Social Media Field Experiment.” Proceedings of the National Academy of Sciences 118, no. 50 (December 14, 2021). https://doi.org/10.1073/pnas.2116310118.
Haslam, Nick, and Steve Loughnan. “Dehumanization and Infrahumanization.” Annual Review of Psychology 65, no. 1 (2014): 399–423. https://doi.org/10.1146/annurev-psych-010213-115045.