Social-Media-Unternehmen sind nicht deine Freunde
Freie Rede, Externalitäten und warum es keine "guten" Plattformen gibt.
Mit Donald Trumps zweiter Amtszeit beginnt eine neue Ära von Social Media. Endlich darf man wieder sagen, was man denkt.
Mark Zuckerberg kündigte an, auf den Meta-Plattformen Facebook, Instagram und Threads werde es inskünftig keine Faktenchecks mehr geben und allgemein werde die Netiquette stark hin zu mehr Hassrede gelockert. Ausgerechnet er, der 2021 Trumps Sperrung auf Facebook und Instagram nach dessen Putschversuch so inbrünstig verteidigte, ist jetzt ins MAGA-Lager gewechselt und kritisiert angebliche Zensurbegehren dunkler Kräfte wie z.B. der EU. Und er findet, in Unternehmen gebe es zu wenig “maskuline Energie”. Und, als Tüpfelchen auf dem i: Zuckerberg erklärte einem Trump-Berater, Schuld für den früheren Kurs von Meta sei seine langjährige Mitarbeiterin Sheryl Sandberg, die Facebook mit aufgebaut hat.
Zuckerbergs Opportunismus scheint überdeutlich. Der politische Wind in den USA hat gedreht und Zuckerberg ist nun auf Trump-Linie, weil man es sich mit dem neuen Präsidenten im Weissen Haus nicht verscherzen will. Scheint nicht übertrieben kompliziert. Oder ist diese Deutung unfair?
Zuckerberg erklärt seinen Sinneswandel ganz anders. Es geht um “Free Speech”: Es sei endlich Zeit für mehr freie Rede und weniger Zensur. Schliesslich habe er Facebook gegründet, erklärte er in einem Gespräch mit Joe Rogan, um Menschen eine Stimme zu geben.
Ein anderer Tech-Milliardär, dem freie Rede auch sehr wichtig ist, ist Elon Musk. Musk hat Twitter bekanntlich gekauft und zu X umgebaut, um eine digitale Bastion der freien Rede zu erschaffen. Alles, was nicht explizit illegal ist, ist auf X erlaubt, betont Musk unermüdlich.
Freie Rede, Free Speech — das ist ein Grundwert der liberalen Demokratie. Was gibt es daran auszusetzen, wenn Tech-Entrepreneure Demokratie stärken wollen? Zum Beispiel den Umstand, dass sie genau das nicht tun.
Das Gerede von freier Rede
Freie Rede ist gut. Sehr gut sogar. Bestrebungen, freie Rede auf Social Media einzuschränken, sind mir grundsätzlich suspekt. Wenn private Unternehmen wie X, Meta, Google und Co. nach eigenem Gutdünken entscheiden, wer was wie sagen darf, ist das grundsätzlich nicht demokratisch legitimiert und darum problematisch.
Das Gegenargument zu dieser Kritik ist, dass das ja private Unternehmen sind und sie mit ihren Plattformen machen dürfen, was sie wollen. Das stimmt grundsätzlich. Social Media gehört formal, de jure, nicht zu Redefreiheit als politischem Recht. Niemand hat einen verfassungsrechtlichen Anspruch auf ein Facebook-Konto. Aber de facto ist Social Media heute einer der zentralen Orte, an denen Menschen ihre Redefreiheit wahrnehmen. Wenn Social-Media-Unternehmen nach eigenem Gutdünken Einschnitte machen, bedeutet das für die Betroffenen, dass sie rechtlich zwar immer noch frei reden können — aber sie verlieren die (vielleicht wichtigsten) Kanäle, die sie für die tatsächliche Ausübung der freien Rede nutzen. Tech-Unternehmen beeinflussen freie Rede also nicht verfassungsrechtlich, sondern funktional.
Es geht also um viel. Auch gut gemeinte Taktiken der sogenannten “Content Moderation”, der Moderation von Inhalten und Usern auf der Plattform, können Probleme schaffen. Wenn man möglichst viele Falsch-Negative vermeiden will (Inhalte, die problematisch sind, aber fälschlicherweise zugelassen werden) besteht das Risiko, dass es zu viele Falsch-Positive gibt (Inhalte, die unproblematisch sind, die aber im zu engmaschigen Netz der Content Moderation hängen bleiben).
Angesichts dieser Argumentation könnte nun grundsätzlich davon ausgegangen werden, dass sich Musk, Zuckerberg und Co. in die richtige Richtung bewegen. Weniger Falsch-Positive, mehr Stimmen.
Doch das tun sie nicht. Weder X noch Facebook, Instagram oder Threads waren jemals oder werden jemals Plattformen für freie Rede sein. Genauso wenig wie alle anderen Plattformen. “Free Speech” ist lediglich PR, mit der nüchterne ökonomische Interessen kaschiert werden.
Das zeigt sich nur schon anekdotisch mit einem Blick auf den Alltag bei den Plattformen. Die vermeintlichen neuen Free-Speech-Oasen betreiben nämlich — in den Worten von Musk und Zuckerberg — nach wie vor sehr viel “Zensur”. So haben sowohl X als auch Meta Netiquetten, die über blosse Gesetzgebung hinausgehen. Auf den Meta-Plattformen ist beispielsweise jede Form der Nacktheit strengstens verboten. Ein Nippel kann schon zur Sperrung führen, wenn die Person, deren Nippel gezeigt wird, das falsche Geschlecht hat (Männernippel sind erlaubt, Frauennippel nicht).
Sowohl die Meta-Plattformen als auch X haben User und Accounts gesperrt, die öffentlich verfügbare Informationen zu den Flugbewegungen von Privatjets veröffentlichten. Privatjets, die Superreichen wie Elon Musk oder Mark Zuckerberg gehören. Die Veröffentlichung der Informationen zu Flugbewegungen ist explizit legal. Für Privatjet-Besitzer aber wohl etwas unangenehm.
Die “Zensur” gedeiht bei X nicht nur gut, sondern offenbar ganz nach der tagesaktuellen Laune des Inhabers. Nachdem MAGA-Anhänger (Musks eigene politische Wahlheimat) Musk auf X für seine wohlwollende Haltung gegenüber einer Form der Arbeitsmigration kritisierten, reagierte Musk mit der Sperrung zahlreicher User. Und kündigte an, den Algorithmus anzupassen, um “positive” Inhalte (Inhalte, die Musk nicht kritisieren) sichtbarer zu machen.
Doch damit nicht genug. Videospiel-Kenner entlarvten Elon Musk unlängst als Lügner. Musk hatte im Spiel “Path of Exile 2” einen hochgelevelten Charakter, der Musk zu einem der weltweit besten Spieler des Spiels macht. Eigentlich. In einem Livestream zeigte sich aber, dass Musk in Wahrheit keine Ahnung vom Spiel hatte. Der Charakter wurde von jemand anderem hochgelevelt. Auf einen prominenten Gamer, der Musk für seine Lügen kritisierte, reagierte dieser mit der Einschränkung des Kritikers auf X.
Diese Beispiele demonstrieren, dass freie Rede offensichtlich und selbstverständlich nicht das prioritäre Ziel von Zuckerberg und Musk ist. Es geht um etwas anderes. Die Tech-Unternehmen packen ihre “Free Speech”-Rhetorik dann aus, wenn es ökonomisch opportun ist. Konkreter: Sie besinnen sich just dann auf freie Rede, wenn sie mit weniger Content Moderation mehr Geld machen können — und wenn sie politische Regulierung ihrer Plattformen, die teuer sein kann, als Zensur dämonisieren wollen.
Externalitäten
Social-Media-Plattformen bieten grundsätzlich nützliche Funktionen. Auch ich bin auf X, Facebook und Co., weil ich davon etwas habe. Ich kann mich mit Menschen vernetzen und meine Meinung teilen. Ich sehne mich nicht nach den analogen Zeiten zurück, bevor es Social Media gab. Damals wurde die öffentliche Debatte von Eliteangehörigen dominiert, und sie fand fast ausschliesslich in den (meistens) wiederum von Eliteangehörigen kontrollierten Massenmedien (TV, Radio, Zeitung) statt. Heute können auch Nobodies wie ich mitreden. Das finde ich gut.
Die wirtschaftliche Aktivität der Socia-Media-Plattformen verursacht aber auch Externalitäten. Nicht beabsichtigte, aber trotzdem schädliche negative Folgen, die uns als Gesellschaft betreffen. Allen voran: Social Media hat für Demokratie positive wie auch negative Effekte, aber das Schlechte ist schlechter als das Gute gut ist. Polarisierung, populistische Rhetorik, Hass, Fehlinformation grassieren dank der Architektur der Plattformen — und die Folge ist eine drastische Abnahme von Vertrauen. Vertrauen ist das Fundament einer funktionierenden Demokratie.
Plattformbetreiber wollen nicht aktiv Demokratie angreifen. Das Problem ist banaler: Das Geschäftsmodell des Überwachungskapitalismus steht in einem Zielkonflikt mit demokratischen Normen und Institutionen. Das ist kein Vorwurf. Social Media sind private Unternehmen, die wie jedes Unternehmen Profit generieren müssen. Die gesellschaftliche Herausforderung liegt aber darin, dass Social-Media-Unternehmen im Rahmen ihrer wirtschaftlichen Aktivität eine besondere Klasse von Gütern herstellen. Nicht Kaugummi oder Turnschuhe, die wir als Konsument*innen in einem rein ökonomischen Tauschverhältnis nutzen oder ignorieren. Social-Media-Unternehmen sind die Hersteller der digitalen Infrastruktur des öffentlichen demokratischen Diskurses. Ihr Produkt ist inhärent und automatisch politisch. Und es gibt Zielkonflikte.
Wie genau funktioniert Überwachungskapitalismus und worin bestehen die Zielkonflikte konkret? Überwachungskapitalismus bedeutet, dass das Gut, das hergestellt wird, persönliche Daten von Usern sind. Diese Daten werden auf den Plattformen gesammelt und weiter an die Werbewirtschaft verkauft. Die Werbewirtschaft kann anhand der personalisierten Daten personalisierte Werbung schalten, die uns wiederum auf den Plattformen und ggf. anderen Orten im Internet angezeigt wird.
Die Prämisse dieses überwachungskapitalistischen Geschäftsmodells ist: Um Daten sammeln zu können, müssen Menschen auf den Plattformen sein. Und zwar möglichst lange. Das Stichwort ist “User Engagement”. Jede Plattform möchte, dass wir maximal lange auf der Plattform verweilen, damit maximal viele Daten über uns gesammelt werden können und uns in der Folge maximal viel Werbung angezeigt werden kann. Um User Engagement zu maximieren, werden die Inhalte auf den Plattformen nicht einfach zufällig oder chronologisch angezeigt. Alle Plattformen kuratieren ihre Inhalte algorithmisch, um uns mit Inhalten, die uns bewegen und interessieren, möglichst lange vor dem Bildschirm zu halten. Das ist grundsätzlich nützlich: Wenn ich ein Video zu einem Rezept für Kartoffelgratin schaue, ist die Wahrscheinlichkeit hoch, dass ich weitere Rezepte-Videos schauen möchte. Das algorithmische Aufmerksamkeits-Hacking hat aber auch eine gewichtige Kehrseite.
Menschen haben allgemein eine irrationale Präferenz für bestimmte Inhalte. Dinge, die uns emotional bewegen, sind Dinge, denen wir mehr Aufmerksamkeit schenken. Das können Inhalte sein, die amüsant und lustig und sexuell erregend sind. Es sind oft aber auch Inhalte, die uns wütend machen, uns Angst machen, die einfache Antworten liefern, die hasserfüllt sind. Inhalte, die wenig kognitive Leistung erfordern und unmittelbar affektiv etwas in uns auslösen. Das sind Inhalte, die polarisieren und Vertrauen abbauen. Die Plattformbetreiber geben dabei nicht z.B. Hassposts aktiv mehr Sichtbarkeit. Hassposts sprechen uns emotional stärker an, erhalten mehr Interaktionen und werden darum vom Algorithmus sichtbarer gemacht. Wenn man das algorithmische Kuratieren von Inhalten abschaltet, verschwinden auch diese negativen Effekte zu einem grossen Teil.
Auch das ist kein Vorwurf an die Plattformen. Würde ich selbst eine Plattform besitzen, ich würde genau gleich überwachungskapitalistisch wirtschaften. Das ist ein bewährtes und profitables Geschäftsmodell. Die Frage, die sich aus demokratischer Sicht aber aufdrängt, ist, was wir mit den Externalitäten, die entstehen, machen. Darauf eine Antwort zu finden ist alles andere als einfach. Wir wissen bis heute nicht, wie eine demokratisch nachhaltige Balance zwischen privaten Plattformen als wichtigem Teil digitaler demokratischer Infrastruktur und der Reduktion der Risiken, die durch die ökonomische Logik der Plattform entstehen, aussieht. Wir wissen nicht, wie wir die Plattformen regulieren sollen.
Das bringt uns zurück zu Musk und Zuckerberg. Bei ihrer “Free Speech”-Rhetorik geht es, wie weiter oben demonstriert, nicht um freie Rede. Es geht um ihre eigenen ökonomischen Interessen. Es geht um Regulierung — und das Bestreben, diese möglichst zu verhindern.
Kriegsansage an Regulierung
Mark Zuckerbergs MAGA-Kehrtwende wurde vielerorts kritisch als zynischer Opportunismus kommentiert. Der politische Wind dreht und Zuck wirft plötzlich alle Überzeugungen, die er hatte, über Bord.
Ich glaube, dass diese Deutung zu wenig präzise ist, weil sie Zuckerbergs Kernaussage im Rahmen der Neuausrichtung von Meta ausser Acht lässt. Zuckerberg erklärte in seiner offiziellen Ankündigung wie auch kurz danach bei Joe Rogan, dass er mit Trump zusammenarbeiten werde, um gegen ausländische Regierungen vorzugehen, die Zensur wollen. Welche Regierungen wollen was für Zensur? Es geht in erster Linie um die Europäische Union, die gemäss Zuckerberg “Zensur institutionalisiere”. Das ist Zuckerberg’scher Neusprech für Regulierung: Die EU reguliert seit einigen Jahren Social-Media-Plattformen stärker, vor allem im Rahmen des “Digital Services Act”.
Und genau hier liegt der Hund begraben. Zuckerberg stört sich, genauso wie Musk, an Regulierung, die die Profite der Plattformen potenziell reduziert. Mit ihrer Umdeutung von Regulierung zu einer Frage von “Zensur” und freier Rede lenken Tech-Unternehmen davon ab, dass es fundamental um die Frage geht, ob es ein demokratisches Recht gibt, zu bestimmen, was Social-Media-Plattformen in einem Land dürfen und was nicht, oder ob die Tech-Unternehmen unilateral machen können, was sie wollen. Die EU will eine Balance zwischen dem Nutzen der Plattformen und der Reduktion der Externalitäten. Musk, Zuckerberg und Co. wollen uneingeschränkte wirtschaftliche Freiheit und keine Konsequenzen für die von ihnen verursachten Externalitäten.
Der Digital Services Act (DSA) ist kein Zensurgesetz. Es ist im Gegenteil ein Gesetz, dass einzelnen Usern mehr Transparenz und Rechte einräumt. Zum Beispiel verpflichtet der DSA grosse Plattformen, bei Löschungen von Inhalten und bei Sperrungen von Konten den betroffenen Usern Möglichkeiten zur Anfechtung dieser Entscheidungen zu gewähren. Die Plattformen müssen ihre Entscheidungen bezüglich Content Moderation zusätzlich in einer öffentlichen Datenbank dokumentieren.
Auch wird im DSA explizit erklärt, dass die Plattformbetreiber nicht dazu verpflichtet sind, Inhalte systematisch zu überwachen. Auch dann nicht, wenn es sich um illegale Inhalte handelt.
Diese Verordnung sollte in keinem Fall so ausgelegt werden, dass sie eine allgemeine Überwachungspflicht, eine allgemeine Verpflichtung zur aktiven Nachforschung oder eine allgemeine Verpflichtung der Anbieter zum Ergreifen proaktiver Maßnahmen in Bezug auf rechtswidrige Inhalte auferlegt.
Der DSA verpflichtet Plattformen lediglich, wirksame Meldemechanismen zu implementieren, mit denen User illegale Inhalte melden können. Auch wird mit dem DSA verboten, dass die Plattformen personalisierte Werbung an Minderjährige schalten. Zudem gibt es neue Transparenzverpflichtungen.
Je grösser die Plattform, desto mehr kostet die Umsetzung des DSA. Sehr grosse Plattformen wie Facebook, X oder Instagram, die von mehr als 10% der EU-Bevölkerung genutzt werden, haben im Rahmen des DSA zusätzliche Auflagen. Allen voran den jährlichen Bericht zu systemischen Risiken der Plattformen, der auch eine unabhängige Prüfung (“Audit”) enthalten muss. Weigern sich die Plattformen, einen solchen Bericht zu verfassen oder die im Rahmen des Berichtes vorgeschlagenen Massnahmen umzusetzen (und das nicht begründen), drohen Bussen.
Der am ehesten kritisierbare Teil des DSA ist der in Artikel 36 beschriebene Krisenreaktionsmechanismus. Bei Krisen wie Wetterkatastrophen, Terroranschlägen, Krieg, Pandemien u.ä., die die Sicherheit oder Gesundheit in grossen Teilen der EU gefährden, kann das unabhängige Europäische Gremium für digitale Dienste aktiv werden. Das Gremium besteht aus Repräsentanten der EU-Staaten. Um den Krisenreaktionsmechanismus zu aktivieren, muss die Mehrheit des Gremiums dafür stimmen. Gibt es eine Mehrheit, fordert die Europäische Kommission die grossen Plattformen auf, ihre Rolle im Rahmen der Krise zu evaluieren. Das bedeutet konkret drei Schritte:
Die Plattformen müssen bewerten, ob ihre Dienste erheblich zur Bedrohungslage beitragen könnten.
Falls ja, müssen die Plattformen verhältnismässige Massnahmen ergreifen, um dieses Risiko zu reduzieren.
Die Plattformen müssen berichten, was die Auswirkungen der Massnahmen sind.
Auch beim Krisenreaktionsmechanismus greift also nicht die Europäische Kommission in Inhalte ein und zensiert nach eigenem Gusto. Sie überlasst die Einschätzung und potenzielle Ausarbeitung von Massnahmen den Plattformbetreibern.
Die Wahl der gemäß Absatz 1 Buchstabe b und Absatz 7 Unterabsatz 2 zu treffenden gezielten Maßnahmen verbleibt bei dem Anbieter bzw. den Anbietern, an den bzw. die sich der Beschluss der Kommission richtet.
Das ist nicht Zensur, sondern eine Aufforderung an die Plattformbetreiber, im Falle eine Krise einzuschätzen, ob das Risiko besteht, dass ihre Plattformen in irgendeiner Form erheblich zur Bedrohungslage beitragen. Plattformen werden sanft in die Verantwortung genommen. Der Krisenraktionsmechanismus ist zudem auf drei Monate beschränkt und kann nur einmalig um maximal drei weitere Monate verlängert werden. Aber auch das ist für die Plattformbetreiber natürlich zu viel, weil so ein Ablauf Geld kostet. Auch dann zu nichts verpflichtet sein, wenn es in der Welt heftig knallt, ist günstiger.
Anlass für die Einbindung des Krisenreaktionsmechanismus in den DSA war die russische Invasion in die Ukraine 2022 und damit verbunden die Sorgen um die Auswirkungen von Desinformation auf Social Media. Dass es einen solchen Mechanismus gibt, erachte ich grundsätzlich als sinnvoll. Kritisch sehe ich aber, dass der Begriff “Krise” nicht präzise definiert wird. Die Rede ist von Terrorismus, Pandemien, Umweltkatastrophen und dergleichen, aber das sind vage extensionale Beispiele und keine klare intensionale Auflistung der notwendigen und hinreichenden Bedingungen für das, was als Krise zählt. Hier merkt man, dass der Krisenreaktionsmechanismus selbst eine Reaktion auf eine Krise ist und m.E. unfertig, überhastet implementiert wurde. Daraus ergibt sich kein Einfallstor für Zensur. Es gibt aber Unsicherheit. Auch für die Plattformen wäre es besser, wenn die Kriterien für eine Krise klar sind, damit sie die Situation frühzeitig einschätzen können. Regulierung sollte präzise sein und Ungewissheiten ausräumen, nicht neue schaffen.
Langer Rede kurzer Sinn: Die EU versucht nicht, Facebook, X und Co. zu zensieren. Die EU will Regulierung zugunsten einzelner User umsetzen. Die Regulierung ist nicht in jeder Hinsicht gelungen (beim Krisenreaktionsmechanismus gibt es Unschärfen), aber es handelt sich recht offensichtlich nicht um Zensur. Die Plattformbetreiber sind gegen die Regulierung der EU und gegen sonstige Regulierung, weil damit Kosten verbunden sind. Das ist logischerweise nicht im Sinn der Plattformbetreiber: Unternehmen wollen, logischerweise und verständlicherweise, weniger Ausgaben und mehr Profit. Mit Trump im Weissen Haus sehen Zuckerberg und Co. einen Verbündeten in ihrem Deregulierungs-Kampf. Und geben sich darum theatralisch als MAGA-Fans, die für “freie Rede” kämpfen.
The Business of Business is Business
Der neoliberale Star-Ökonom Milton Friedman sagte einmal sinngemäss: The Business of Business is Business. Unternehmen haben keine soziale Verantwortung und keine gesellschaftlichen Verpflichtungen. Die einzige Verantwortung, die sie haben, ist Profitmaximierung.
Das ist eine meiner ökonomischen Lieblingsmaximen, denn Friedman hat ganz offensichtlich recht. Unternehmen gehen wirtschaftlicher Aktivität nach, um Gewinn zu erwirtschaften. Sie verfolgen ökonomische, nicht moralische Ziele. Wenn sie in irgendeiner Form vorgeben, moralische Ziele zu verfolgen, ist das kategorisch immer nur Mittel zum übergeordneten Zweck. Als sich Meta progressiv und um Hassrede und Fehlinformation besorgt positionierte, war das Mittel zum Zweck der Profitmaximierung. Es war in den Biden-Jahren gut für’s Geschäft. Wenn sich Meta nun als Trump-nahe Bastion der freien Rede positioniert, ist das auch nur Mittel zum Zweck der Profitmaximierung. Die gesellschaftliche Konstellation in den USA hat sich so verändert, dass Zuckerbergs Neuausrichtung gut für’s Geschäft ist.
Es gibt keine “guten” Social-Media-Plattformen. Es gibt keine “schlechten” Social-Media-Plattformen. Plattformen als Unternehmen sind komplett amoralisch. The Business of Business is Business. Das ist auch richtig so.
Moralische Ziele haben nicht Unternehmen, sondern wir als demokratische Gesellschaft. Es ist unsere Aufgabe, die regulatorischen Leitplanken zu bestimmen, innerhalb derer Mega-Konzerne wie Meta operieren. Darum dürfen wir nicht auf die PR der Tech-Unternehmen reinfallen.
Egal, ob sie sich theatralisch als “Free Speech”-Aktivisten ausgeben oder sich mit einem dicken Anstrich “Safe Space” progressiv inszenieren: Wie mit den Externalitäten, die die Social-Media-Unternehmen verursachen, umzugehen ist, entscheiden wir, nicht sie.