Künstliche Intelligenz | Hitler beim Moonwalk: Wie billige KI-Inhalte unsrige Wahrnehmung von Realität zerstören

Babys mit Waschbrettbauch und Superkräften. In Abertausend funkelnde Edelsteine gehüllte Klopapierhalter. Putzige Kätzchen und Hündchen mit kugelrunden Augen. Menschen, die sich in Gemüse verwandeln – und natürlich Shrimp-Jesus, ein Unterwasserheiliger mit Garnelenarmen. Solche Bilder und Videos überschwemmen die Social-Media-Feeds, generiert von Künstlicher Intelligenz.

Man nennt es „Slop“, was so viel bedeutet wie schnell hingeworfen, von der maschinellen Intelligenz ausgekotzt. Diese Inhalte sind oft extrem und surreal, erklärt der Mediensoziologe und Bildungswissenschaftler Thomas Sommerer von der Johannes Kepler Universität Linz. „Alles Extreme funktioniert im digitalen Raum sehr gut.“

Placeholder image-1

Die KI kombiniert ein brennendes Flugzeug mit einem süßen Kätzchen: Voilà, die ultimative Klickbarkeit ist geschaffen. Ein KI-Rezept für Creamy Alfredo Lasagna Soup war 2024 das siebtmeistgesehene Posting auf Facebook. Ein überdimensioniertes Ventilator-Doppelbett erhielt auf Instagram 35 Millionen Views, ein Pferd aus Brotlaiben 50 Millionen – sogar Mark Zuckerberg hat es geliket. KI-Slop ist schnell, billig und reißerisch, der Clickbait des KI-Zeitalters, das Trash-TV der neuen Technologien.

Günstig und schnell zu produzieren

Slop-Coaches und -Creator:innen verraten in Videos ihre Geheimnisse, wie man mit fixen Prompts schnelles Geld machen kann – gegen Bezahlung, versteht sich. Doch selbst bei viralen Inhalten kommen nur ein paar hundert US-Dollar zusammen. Besonders in Ländern wie Indien, Vietnam oder den Philippinen ist die Erstellung solcher Inhalte attraktiv, weil sie schnell und günstig zu produzieren sind.

„AI slop is ultimately a volume game“, sagt der Politcomedian John Oliver, was heißt: Wer am lautesten schreit, dem wird zugehört. Der Inhalt ist austauschbar, Hauptsache, es klickt. Jon Gillham, Gründer und Geschäftsführer des KI-Detektorenunternehmens Originality.AI, sagt: „Not all AI content is spam, but right now all spam is AI content.“ Nicht alle KI-Inhalte sind Spam, aber Spam ist fast immer KI.

Na und?, könnte man jetzt sagen. Süße Kätzchen in Endlosschleife, ein Sohn Gottes aus Shrimps – was soll denn daran schlecht sein? Einiges, leider. So werden etwa Kreativplattformen wie Pinterest regelrecht überschwemmt und ausgehöhlt durch KI-Slop. Mittlerweile sind wohl rund 80 Prozent der Inhalte auf Pinterest von der Künstlichen Intelligenz generiert. Für die Pinterest-Community, die dort Bilder ihrer eigenen Kreativarbeit – von selbstgestalteten Hinterhofgärten bis zu Häkelmustern – ausstellte, ist das ein Sargnagel.

Placeholder image-2

Ein weiteres Problem: KI-Slop dockt an viral gegangene Inhalte mit tatsächlich realweltlichem Hintergrund an, ohne dies kenntlich zu machen. So gingen eine ganze Reihe von Bildern fiktiver Holzbildhauer, die neben überdimensionierten Löwen- und Adlerstatuen aus Holz posierten, viral. Der Trend lässt sich auf einen realen Künstler zurückverfolgen, den Briten Michael Jones, der ein Bild von sich und einer Statue postete, das vielfach geklickt wurde. Die KI hat das Bild einfach geklaut, das Motiv variiert und vervielfältigt – teils mit Millionen Views. Jones selbst hat keinen Cent davon gesehen.

Sexismus und Slopaganda

Während KI-Creators fleißig Spam kreieren, gibt es da noch ein ganz anderes Problem: die Umweltbelastung und Ressourcenvernichtung von KI-Anwendungen durch ihren enormen Energieverbrauch für Rechenzentren und den benötigten Wasserverbrauch zur Kühlung und für das Training von KI-Modellen.

Hochproblematisch ist auch die Eigenschaft der KI, Extreme auszuwählen und zu kombinieren, um den maximalen Knalleffekt zu erzielen. Die Feeds sind deswegen voll von Frauen mit riesigen Brüsten und Wespentaillen in Hotpants-Uniformen. Normschöne Perfektion, objektifiziert, überzeichnet, für den männlichen Blick generiert. Eine KI-Dauerbeschallung von Stereotypen mit misogynen Ästhetiken. So gehen aktuell teils täuschend echte Videos von ebenso täuschend echten Frauen in Bikinis viral, die Interviews mit – vollständig bekleideten – Männern auf offener Straße führen.

Die Trennwand zwischen Realität und Fiktion ist oft nur noch ein dünnes Mäuerchen, was eine Flut von misogynen Kommentaren provoziert. „Misogynie, die vormals noch versteckt wurde, wird in den KI-Inhalten nun ganz ausgelebt“, sagt Nirali Bhatia, eine indische Cyberpsychologin, in einem Interview mit dem französischen Fernsehsender France24. „Das ist ein Beispiel für KI-verursachte Destruktion – das Befeuern von Sexismus.“

Die MAGA-Ästhetik ist beeinflusst von KI-Slop

Das größte Problem sieht Experte Sommerer allerdings in der niederschwellig erstellbaren und massenhaft möglichen Desinformation. Slopaganda ist gerade in rechtskonservativen bis rechten Bubbles beliebt. The Atlantic titelte im August 2024: „The MAGA aesthetics is AI slop“, etwa: Die MAGA-Ästhetik ist maßgeblich beeinflusst von KI-Slop. Im vergangenen US-Wahlkampf machten KI-generierte Bilder von Kamala Harris in kommunistischer Uniform die Runde.

Placeholder image-3

Bilder von der Amtseinführung Donald Trumps wurden per KI nachträglich bearbeitet, sodass es aussah, als hätten mehr Menschen teilgenommen, als es tatsächlich der Fall war. Auch der jüngste Clip in Antwort auf die „No Kings“-Proteste, gepostet auf dem Kanal des US-Präsidenten auf seiner Plattform „Truth Social“, arbeitet mit einem KI-generierten Video. Über die Protestierenden wirft er als Pilot eines Kampfflugzeugs (und mit einer Krone auf dem Kopf) aus einem Kampfflugzeug heraus Tonnen einer braunen Masse ab.

So werden ultrarechte Themen aufgenommen und per KI verbreitet. Ein boomender Markt mit KI-Slop-Nachrichten ist entstanden: Generierte Videos zum Ukraine-Krieg oder das Bild des ikonischen Hollywood-Schriftzugs, das während der Waldbrände in Los Angeles angeblich in Flammen stand, verbreiten sich rasend schnell. Für KI-Experte Thomas Sommerer ist längst ein kritischer Punkt erreicht: „Es wird immer schwerer zu überprüfen, was real ist und was nicht.“

Japan plant ein KI-Gesetz

Ende September erschien Sora 2 – damit können zehn Sekunden lange Videos in Top-Qualität erstellt werden, täuschend echt und mit einer besseren Darstellung als bei vorangegangenen Modellen. Wenn ein Basketballspieler früher danebenwarf, konnte der Ball plötzlich trotzdem im Korb auftauchen. Jetzt prallt der Ball ab. Per Cameo-Funktion können Nutzer:innen jetzt ihr eigenes Gesicht quasi beliebig in Videos einbauen. Diese Funktion soll, laut offiziellem Statement des Unternehmens, „riesigen Spaß“ machen.

Was innerhalb nur weniger Stunden nach der Veröffentlichung von Sora 2 die Feeds flutet, ist für viele alles andere als witzig: Urheberrechtlich geschützte Figuren wie Pikachu und Super Mario werden als Grillgut über Feuer gebrutzelt oder rasen wild durch die Straßen.

Placeholder image-4

Und es wird schnell noch verstörender: Michael Jackson und Adolf Hitler, die sich darüber streiten, wer den Moonwalk erfunden hat. Osama bin Laden und Saddam Hussein als Metalband-Mitglieder. Malcolm X, Bürgerrechts-Iko, 1965 bei einem Attentat erschossen, erzählt Fäkalwitze. .

!—- Parallax text ends here —-!

Minoru Kiuchi, der japanische Staatsminister für geistiges Eigentum und KI-Strategie, sprach sich in einer Pressekonferenz gegen die Nutzung aus. Ein neues KI-Gesetz soll nun zumindest in Japan Abhilfe schaffen

Desinformation im freien Fall

Auch der 2014 verstorbene US-Schauspieler Robin Williams wird in bizarren KI-Videos eingesetzt. Seine Tochter wendet sich daraufhin an die Öffentlichkeit: „Hört auf, mir KI-Videos von meinem Vater zu schicken.“ Sie findet auch deutliche Worte für alle, die diese Art der KI-Nutzung Zukunft nennen: „KI macht nichts anderes, als die Vergangenheit auf billigste Art und Weise zu recyceln und wieder auszukotzen, um sie anschließend wieder zu konsumieren.“ Spaßig? Das klingt nicht so.

Erschwerend kommt hinzu: „Es können jetzt Inhalte generiert werden, die mit der Lebenswelt gar nichts mehr zu tun haben“, so Mediensoziologe Sommerer. Er nennt es „die Entkopplung von Lebenswelt und Medienrealität“. Ein äußerst toxischer Mix.

KI wird so zum perfekten Tool für die Verbreitung von Verschwörungstheorien. Bilder wie die KI-manipulierte Menschenmenge zur Amtseinführung von Donald Trump fußten zumindest noch auf realen Momenten. „Für Verschwörungstheorien brauchen wir dank KI keine Versatzstücke mehr aus der realen Welt“, so Sommerer. Diese entkoppelten Medien konsumieren wir, ohne dass sie eine Rechtfertigung in der Realität haben oder brauchen.

Auch Echtes wird angezweifelt

Aber wer soll da noch hinterherkommen? In der Folge wartet dann schon eine Konsequenz, deren Folgen sich noch gar nicht absehen lassen – die sogenannte Liar’s Dividend, die Dividende der Lügner. Sie beschreibt das Phänomen, wie die Flut von Slop, Deepfakes und Falschinformationen dafür instrumentalisiert werden kann, echte Tatsachen als unecht abzutun.

Für den US-Präsidenten Donald Trump scheint die Lügner-Dividende längst als neue Taktik aufzugehen. In einer Pressekonferenz reagierte Trump auf ein Video mit: „Nein, das ist wahrscheinlich KI.“ Und fügte hinzu: „Wenn etwas wirklich Schlimmes passiert, muss ich vielleicht einfach der KI die Schuld geben.“ Auf dem Video ist zu sehen, wie eine Person einen schwarzen Plastiksack aus dem Obergeschoss des Weißen Hauses wirft. Sein eigenes Presseteam hatte das kurze Video als real angegeben. Alles KI also, was einem nicht in den Kram passt.

Nora Beyer ist freie Autorin und schreibt über Games-Kultur und Digitales

AdolfAugustBildDeepfakesDesinformationDollarDonaldEigentumEnergieverbrauchFacebookFeuerFrauenGamesGeldHarrisHintergrundHitlerHollywoodHolzIndienInstagramIntelligenzJacksonJapanJohannesJohnJonesKamalaKIKriegKulturKünstliche IntelligenzLangeLos AngelesMANMarioMarkMedienMichaelNotOliverPhilippinenPlantProtesteRasenRechenzentrenRobinSSchauspielerSelbstSexismusStaatsministerThomasTrumpTVUkraineUSUS-DollarVerschwörungstheorienVideoVietnamWahlkampfWaldbrändeWeilWELTWilliamsZuckerberg