X (einmal Twitter) – X (einmal Twitter): untergeordnet ein Ort dieser Freiheit

Viele User kehren dieser Plattform X (einmal Twitter) den Verstellen. Auch Behörden, große gemeinnützige Organisationen, Unternehmen. Es hat eine Art Massenabwanderung stattgefunden; wer noch bleibt, hat zunehmend Schwierigkeiten, sein Bleiben zu verteidigen. Elon Musk äußere sich judenfeindlich und rechts, ebendiese Haltung mache die Benutzung dieser Plattform untragbar. Doch ebendiese Einschätzung wirft mehrere Fragen aufwärts. Selbst wenn Musks politische Einstellung ebendiese Schlagseite hat, bedeutet dies nicht zwingend, dass sich die politische Haltung aufwärts die Struktur dieser Plattform auswirkt. Wie stellt man schier die Rechtslastigkeit einer Plattform vertrauenerweckend und mit objektiven Mitteln starr?

„Es ist von Interesse zu sehen, wie sich die rechtsextreme Radikalisierung in Echtzeit entfaltet“ erklärt Josh Marshall, dieser Gründer von Talking Points Memo (TPM), einem preisgekrönten Team von Investigativjournalistinnen und Reportern. Musk befördere aufwärts seiner Social-Media-Plattform zunehmend rechtsextremes Gedankengut, erklärt er. Dieser Vorwurf Marshalls entwickelt sich ohne Rest durch zwei teilbar zum vorherrschenden Narrativ links-progressiver User von X. Was richtig ist: Musk weigert sich derzeit, Teile des Digital Services Act (DSA) zu berücksichtigen, dieser Plattformen einer bestimmten Größe die Pflicht auferlegt, gegen „Desinformation“ vorgehen und die eigenen Algorithmen zu begutachten. Dass Musk jedoch spezifisch versucht, rechte und rechtsradikale Accounts durch Strukturen aufwärts X zu stützen, ist schon schwieriger nachzuweisen. Zentrale Frage hierbei dürfte sein: Was ist ein rechter Account? Wann stellen ebendiese Accounts ein Problem dar? Man kann, ohne mit Rechten in irgendwer Weise zu sympathisieren, durchaus die Meinung vertreten, dass untergeordnet rechte Accounts – die sich an die Gesetze halten – in einer Demokratie hingenommen werden zu tun sein. Es war mal eine urliberale Position, Sanktionierung mit Hilfe von von Werten – statt Gesetzen – abzulehnen.

Politisch korrekte Unternehmen

Auch viele Unternehmen ziehen sich zurück oder weggehen die Werbepartnerschaft mit X. Grund ist unter anderem die Weigerung Musks, zu veranlassen, dass deren Werbung nur zwischen Tweets und Accounts ausgespielt wird, die wie politisch unproblematisch gelten. So etwa wollte IBM seine Werbebotschaften nicht zwischen den Tweets rechter bzw. rechtsradikaler Accounts platziert wissen. Die „Faktenchecker“ Media Matters hatten zuvor in einer Untersuchung gezeigt, dass genau dies geschehe. Musk verweigerte eine Anpassung im Sinne dieser Unternehmen. Wie untergeordnet immer es um die Aussagekraft dieser Studie bestellt ist, die inzwischen untergeordnet die Gerichte beschäftigt: Seit ein paar Jahren ist es pro Unternehmen zunehmend wichtig, eine ideologisch negative Umgebung ihrer Marken zu vermeiden. Dieses offensive Zeigen von Haltung trifft aufwärts allgemeine Zustimmung in dieser progressiven Social-Media-Bubble.

Diese Ablehnung, sich in dieser Nähe zu rechtsextremen Accounts zu entscheiden, mag tatsächlich erst mal sympathisch tönen, genau drum geht es den Unternehmen untergeordnet. Dennoch stellt sich die Frage, wie weit dieser Einfluss großer Unternehmen im Prinzip in Betracht kommen darf. Soll sich ein Werbepartner untergeordnet aussuchen die Erlaubnis haben, die Werbeumgebung zu verpflichten, wenn es um andere aufgeladene Themen geht, so zum Beispiel um Klimaschutz, Israelpolitik oder Corona? Auch hier stellt sich wieder die Frage, wie dehnbar dieser Begriff „rechter Account“ im Prinzip ist. Wenn dieser Einfluss dieser Unternehmen aufwärts Algorithmen so weit geht, dass Accounts mit „problematischen“ Inhalten künftig in dieser Reichweite limitiert werden zu tun sein, um die Unternehmen zufrieden zu stellen, hat dieses Vorgehen durchaus Einfluss aufwärts die Meinungsfreiheit.

Der neue „Kampf gegen rechts“

Dass Unternehmen und progressive X-User aufwärts X ohne Rest durch zwei teilbar an einem Strang ziehen, hat nicht nur mit an Identitätspolitik orientierter Firmenphilosophie, sondern untergeordnet mit einem veränderten Verständnis zu tun, wie gegen dasjenige Erstarken dieser Rechten vorgegangen werden soll. Das postmoderne, progressive Narrativ baut aufwärts dieser Vermutung, dass Faschismus durch Sprache, Argumente und deren ungehinderte Verbreitung entsteht. Dass deswegen umgekehrt nur die Strukturen kontrolliert werden zu tun sein, in denen sich die rechte Sprache ausbreiten kann, um jede Gefahr von rechts zu bekämpfen. Dieser links-bürgerliche Ansatz unberücksichtigt komplexe soziale und politische Gründe, sondern gibt Sprache eine magische Bedeutung. Der postmoderne Antifaschismus kämpft gegen Meinungen. Er wendet sich gegen wie rechts eingeordnete Formen und Zeichen. Er fragt nicht, warum ebendiese entstehen, welche materialistischen und kapitalistischen Bedingungen vorherrschen zu tun sein, damit sie an Einfluss profitieren, und unter welchen Bedingungen sie sich vervielfältigen, Fragen, die man sich insbesondere nachdem dieser Zeit des Nationalsozialismus gestellt hatte. Sondern schaut einzig darauf, dass sie nirgendwo vorkommen. Je weniger Repräsentanz, umso besser, so die Devise. Nur die „richtigen“ Zeichen die Erlaubnis haben sich repräsentieren. Denn die wichtigste Strategie lautet, man müsse ihnen möglichst wenig Raum spendieren, um sie zum Verschwinden zu mitbringen.

Dieser sprachfokussierte „woke“, kapitalismusaffine Antifaschismus versucht mit immer feineren Mitteln, Sprache zu kontrollieren. Offenbar verhindert ebendiese Strategie ungeachtet nicht dasjenige Erstarken dieser Rechten, dasjenige Gegenteil scheint dieser Fall zu sein. Es geht hier im übrigen um kein Plädoyer pro vereinen rechtsfreien Raum „Internet“. Große Plattformen nach sich ziehen eine Verantwortung, ebendiese betrifft Beleidigung, üble Nachrede, Verleumdung, öffentliche Aufforderung zu Straftaten, Volksverhetzung, Gewaltdarstellung und Bedrohung. Einerseits zu tun sein die Plattformen Sorge tragen, dass verbotene Inhalte zeitnah gelöscht werden. Andererseits wäre es zugestanden sehr wohl ein Problem, wenn mithilfe einer großen Plattform kognitiv undemokratische Strukturen geschaffen würden, die eine Organisation dieser Rechten vereinfachen und damit ihre Möglichkeiten struktureller Machtausübung stärken. In dieser Tat müsste so einer Entwicklung entgegengewirkt werden. Die zentrale Frage lautet von dort: Geschieht dies derzeit aufwärts X? Und noch wichtiger: Wird ebendiese Frage schier mit objektiven, wissenschaftlichen Mitteln untersucht?

Herausfinden, welches wirklich ist: Studien

Studien hierzu sind hier leider rar. Eine twitter-hauseigene Studie hatte 2021, deswegen noch in Zeiten vor Musk, getreu, dass rechte Inhalte häufiger ausgespielt werden. Allerdings galt dies nicht pro Deutschland, untergeordnet die Gründe blieben völlig unklar. Leider hat Musk darauf verzichtet, im eigenen Haus weiter Forschung zu betreiben und den Gründen nachzugehen.

Wenn es Studien gibt, ist ihre Objektivität nicht immer gesichert. Am 6. Dezember 2022 postete dasjenige „Centre for Countering Digital Hate“ vereinen Versuch, die Zunahme von Hassrede unter Musk zu quantifizieren. Im Bericht steht, es hätte sich ein „Musk Bump“ im Umfang dieser Hassreden aufwärts Twitter getreu und ein Versäumnis, gegen gefährliche Anti-LGBTQ+-Verleumdungen vorzugehen, welches im Widerspruch zu Musks Versprechen stünde, dass hasserfüllte Tweets „maximal entboostet“ werden würden. Mit „entboostet“ ist hier wohl die Maßnahme gemeint, „Hass-Tweets“ in dieser Reichweite zu einschränken. Nun ist ungeachtet durchaus nicht lukulent definiert, welches unter „Hassrede“ verstanden wird und aufwärts welcher Grundlage eine Zunahme festgestellt wurde. Zudem kommt, nur um ein Beispiel zu nennen, Kritik an manchen Inhalten dieser LGBTQ+-Bewegung längst nicht nur von rechter, sondern untergeordnet von konservativer, linker, liberaler sowie von feministischer Seite. Eine Kritik am Transaktivismus ist nicht zwingend Verleumdung. Gerade beim Thema LGBTQ+ zeigt sich offensichtlich, wie gefährlich gefügig die Begriffe sind, die eine Zunahme beweisen sollen.

Zudem sagt die Zunahme bestimmter Worte zurückgezogen nicht viel aus. Inzwischen gibt es laut „Centre for Countering Digital Hate“ 3.876 tägliche Tweets, in denen dasjenige rassistische Stickstoffgas-Wort aufwärts X erwähnt wurde. Das ist ein Anstieg von 202 % im Gegensatz zu dieser durchschnittlichen täglichen Rate im Jahr 2022 vor Musks Übernehmen. Leider wird hier nicht weiter differenziert: Wird dasjenige „Stickstoffgas-Wort“ spezifisch bissig verwendet, ist dies eine im Prinzip andere Situation wie wenn es im Rahmen einer Debatte darüber hinaus „political correctness“ ausgeschrieben wird, die sich etwa um die Frage dreht, ob dasjenige Wort nun ganz und gar werden darf oder nicht. Solche Debatten gibt es im Zuge aktueller „Kulturkämpfe“ vermehrt, dies wird sich ebenfalls aufwärts die 7-Sep problematischer Begriffe auswirken. Hier wäre es wichtig, dass zwischen Tweets mit beleidigendem Inhalt und strafrechtlicher Relevanz, die selbstverständlich in Kooperation mit Behörden gelöscht werden zu tun sein, und inhaltlichen Auseinandersetzungen differenziert wird, um ein klares Bild zu erhalten.

Die Untersuchung darüber hinaus die „blauen Haken“, deswegen dasjenige Abonnementsystem von X, zeigt vornehmlich offensichtlich, dass Studien von Faktenchecker-Organisationen wie „Centre for Countering Digital Hate“ oft eine politische Schlagseite nach sich ziehen, dasjenige sich zuweilen aufwärts die Einordnung dieser Untersuchungsergebnisse auswirkt. In dem Bericht wird erklärt, dass 99% aller Besitzer von blauen Haken „Hass“ tweeten würden. Nicht nur, dass untergeordnet hier wieder eine Definition von „Hassrede“ vermieden wird. Die Studie berücksichtigt zudem untergeordnet nicht den Umstand, dass genau dieses Narrativ, Besitzer des blauen Hakens schürten Hass, dazu geführt hat, dass dieser blaue Haken im Kontext den links-liberalen progressiven Personen in Verruf geraten ist. Wer aufwärts Twitter vereinen Haken kauft, macht sich verdächtig, rechts zu sein und Hass zu tweeten. Dies hat dazu geführt, dass sich nur noch Personen vereinen Haken kaufen, die nicht Bestandteil dieser progressiven linken Bubble sind, welches dasjenige Ergebnis verzerrt. Eine Studie, die solche Effekte nicht berücksichtigt, macht sich unzuverlässig.

X hat eine gesellschaftliche Funktion

Diese Studien unterfüttern die Idee, es sei unumgänglich, X stärker zu einem „Kampf gegen rechts“ zu verpflichten. Bundesinnenministerin Nancy Faeser hat am 13.2.24 ein neues Maßnahmenpaket gegen Rechtsextremismus vorgestellt. Geplant ist unter anderem, die zentralen Meldestellen auszubauen, mit denen dieser Staat gegen eine undemokratische, rechte Vereinnahmung stark gemacht werden soll. „Hass im Netz bekämpfen“ lautet die Devise. Leider besteht untergeordnet hier, genau wie beim Digital Services Act (DSA), dasjenige Problem, dass weder „Hass“, noch „rechtsextremer Inhalt“ definiert werden, die Begriffe gleichwohl ungeachtet Grundlage pro „Bekämpfungsstrategien- und Instrumente“ des Bundeskriminalamt sein sollen. Vor diesem allgemeinen, ambitionierten Hintergrund muss untergeordnet dieser politische und von Teilen dieser wissenschaftlich linken Gesellschaft getragene Versuch gesehen werden, X zu Account-Sperren, Anpassung dieser Algorithmen und Regulierung von Reichweite sozialer Netzwerke zu verpflichten. Eines darf man nicht vergessen: Trotz aller Nachteile des Mediums ist X bislang gut probat, Diskurse anzuregen und untergeordnet Minderheitenmeinungen abzubilden. Hier treffen Journalisten unterschiedlicher weltanschaulicher Richtungen aufeinander. Wenn jetzt immer mehr Maßnahmen gegen sogenannte Hassrede verwirklicht werden, wenn dann noch zusätzlich progressive, links-liberale Stimmen aufwärts X verschwinden, schwächt dasjenige nicht nur X, sondern den gesellschaftlichen Diskurs, aufwärts dem die Demokratie beruht.