KI | OpenAI, Google & Meta sind nicht mehr vertrauenswürdig: So können wir uns schützen
Im Juni 2025 gründete die US-Armee eine neue Reserveeinheit mit dem Namen Detachment 201 oder auch Executive Innovation Corps. Diese Abteilung besteht derzeit aus vier Tech-Managern, die im Zuge dessen offiziell den militärischen Rang des Lieutenant Colonel erhielten. Dazu zählen der CTO (Chief Technology Officer) von Palantir, Shyam Sankar, der CPO (Chief Product Officer) von OpenAI, Kevin Weil, Metas CTO Andrew Bosworth und der frühere Chief Research Officer von OpenAI, Bob McGrew.
Selbsterklärtes Ziel dieser neuen Abteilung ist es, „modernstes technologisches Fachwissen mit militärischer Innovation“ zu verbinden. Detachment 201 will langfristig leitende Personen aus der Tech-Industrie an die US Army binden, um „schnelle, skalierbare Technologielösungen für komplexe Probleme zu entwickeln“, die die US-amerikanischen Streitkräfte qua KI-Transformation „schlanker, smarter und tödlicher“ machen sollen. Dies sei erst der Anfang einer größeren Mission, immer mehr Tech-Profis aus den kommenden Generationen zu inspirieren, „in Uniform etwas zu bewegen“, ohne dafür gut dotierte Karrieren aufzugeben.
Das einstige Credo des Silicon Valley, „Don’t be evil“, gilt schon lange nicht mehr. Der ehemalige Google-Boss Eric Schmidt ist heute Vorsitzender der National Security Commission on Artificial Intelligence (NSCAI). Elon Musks Kettensägenmassaker DOGE hat irreparable Schäden nicht nur in Verwaltung und Entwicklungshilfe hinterlassen. Scharfe Trennlinien zwischen Industrie, Regierung und Militär existieren in der aktuellen Trump-Regierung kaum noch und es wäre nahezu euphemistisch, noch von möglichen Gefahren einer Hintertür oder Interessenkonflikten zu sprechen.
Slop ist das Wort des Jahres
KI-Firmen wie Palantir, Meta und Open-AI bauen ihren politischen und militärischen Einfluss aus. Zeitgleich werden die Zugriffsmöglichkeiten für das Militär und die Regierung auf unfassbar große Datenbanken und zu persönlichen Informationen von Abermillionen Usern auf der ganzen Welt (Instagram, Whatsapp, ChatGPT) immer größer. Dass Donald Trump dank militärischer Befehlsmacht für die Durchsetzung seiner Interessen gerne den schnellen, „unbürokratischen“ Weg sucht, bewies er, als er richterliche Anweisungen ignorierte und die Nationalgarde zur Niederschlagung von Protesten nach Los Angeles, Washington und Chicago kommandierte. Auch die Angriffe durch Militär-Kampfjets auf venezolanische Schiffe zählen dazu.
Der amerikanische Wörterbuchverlag Merriam-Webster hat Slop (dt. „Schlamm“, „Schweinefraß“) zum Wort des Jahres gekürt. Damit sind KI-Slops gemeint, die heute die Doomscrolling-Feeds in sozialen Medien zunehmend dominieren. Dazu zählen geschmacklose Videos von Trump, in denen er im Düsenjet Fäkalien über Demonstrierende ausschüttet, Brainrot-Katzenvideos, aber auch Bands wie Velvet Sundown auf Spotify, die es gar nicht gibt.
Oder noch perfider: Kopien von Bands wie King Gizzard & The Lizard Wizard, die öffentlich ihren Ausstieg von der immer häufiger in die Kritik geratenen Musikplattform bekannt gaben und nun als KI-Version unter dem leicht veränderten Namen King Lizard Wizard wieder auftauchen. Täuschend echt, aber alles andere als autorisiert, geschweige denn von Menschen komponiert und interpretiert. Die Band kommentierte das mehr oder weniger hilflos: „Wir sind alle dem Untergang geweiht.“ Slop könnte aber auch für die undurchsichtige sumpfige Gemengelage und zunehmende Machtkonsolidierung zwischen Tech-Oligarchien und US-Politik stehen.
ChatGPT zählt pro Woche in etwa 800 Millionen User, und für viele sind generative KIs zu selbstverständlichen Alltagsbegleiterinnen geworden. Oft auch in intimen Lebensbereichen wie mentale Gesundheit und Liebesbeziehungen. Auch Google setzt stark auf seine eigene Plattform Gemini und bringt heute primär KI-generierte Dialogangebote anstelle der bislang bekannten Suchergebnisse. Große Fortschritte machte Google außerdem in den Bereichen Bildgenerierung und KI-Video.
Die Ergebnisse, die mit Veo 3 (Video) und Nano Banana Pro (Bild) produziert werden können, sorgten auf der einen Seite für Erstaunen und Begeisterung, da die Qualität von KI-Inhalten nochmals wesentlich gesteigert und präzisiert werden konnte, zum anderen aber auch für lange Gesichter und depressive Stimmung in der gestalterischen Medienbranche. Der finale Dolchstoß, so befürchten viele, ist nur noch eine Frage der Zeit. Zukunftsangst grassiert auch in den bislang als absolut sicher geltenden Branchen wie der Informatik, Programmierung und Computerwissenschaften.
Die Normalisierung von KI birgt Gefahren
Rückblickend könnte das vergangene Jahr 2025 als eines der Normalisierung und Konsolidierung verstanden werden. KI-generierten Content als solchen auszumachen, ist heute mit geschultem Auge und Ohr unter Umständen noch möglich, wird aber zunehmend schwerer, wie die Entwicklungen bei Google zeigen. Zudem wird der Gebrauch von generativer KI in der Medien- und Kulturwelt zunehmend normalisiert. Kürzlich schloss Disney einen Deal mit OpenAI ab, was auch die Lizensierung von Disney-Marken wie Star Wars, Marvel, Pixar, Micky Maus und Donald Duck für die OpenAI-Videoplattform Sora beinhaltet. Laut Disney-CEO Bob Iger solle damit Disneys Storytelling erweitert und parallel die Arbeit von Kreativen geschützt werden. Wie auch immer das gemeint ist.
Nutzer:innen können nun eigenständig Clips in weltweit ikonischen Bildsprachen generieren. Mit zweifelhaften Ergebnissen: Im Internet tauchten bereits Sora-produzierte Disney-Trailer mit pornografischen Anspielungen auf. Aber auch der Ku-Klux-Klan und Jeffrey Epstein wurden „pixarisiert“. Dabei galt bislang Disney als eine jener Unterhaltungsfirmen, die für ihre hypersensible Penibilität und Aggressivität bekannt gewesen sind, was den Schutz und die Verteidigung ihrer „familienfreundlichen“ Marken anbetraf.
Auch das Traditionshaus New York Times tütete einen Deal mit Amazon ein, der nun dem Unternehmen von Jeff Bezos die Nutzung von NYT-Inhalten für seine KI-Applikationen erlaubt. 2023 klagte die New York Times noch gegen Microsoft und OpenAI wegen verletzter Urheberrechte. Es scheint, als würden immer mehr etablierte Marken unter dem Druck der immer mächtiger werdenden KI-Unternehmen zunehmend einknicken. Als versuchten sie, wenigstens mit solchen Exklusivdeals noch einen letzten Funken Kontrolle und Herrschaft über ihre Inhalte zu bewahren. Der Fall Disney zeigt aber jetzt schon, dass das im Zeitalter der Slops mehr als illusorisch ist.
Auch im deutschen öffentlich-rechtlichen Rundfunk ist der Einsatz von KI zur Normalität geworden. Mäßig inspirierte Bilder in der ARD-Audiothek, Grafiken in Satire-Shows wie heute show oder extra 3, Zwischensequenzen und Antexter in seriösen Doku-Formaten – im seltensten Fall kommt KI zum Einsatz, weil sie einen Mehrwert im so oft zitierten Storytelling anbietet. Aber hatte das Qualitätsversprechen des ÖRR nicht auch etwas mit Ethos und Wertschätzung gegenüber kreativen Gewerken zu tun?
Der Trend muss zu kleinen unabhängigen Modellen gehen
Boykott und Verweigerung sind erst mal natürliche Reaktionen, die vielen in den Sinn kommen, wenn es um die Frage geht, wie man mit diesem Dilemma umzugehen hat. Allerdings sind die Prinzipien und Nutzungsszenarien von generativer KI schon zu fest verankert, um eine „Welt ohne KI“ zu imaginieren. Man frage nur Lehrkräfte und Uni-Professor:innen, mit welchen Werkzeugen heute Hausaufgaben, Abschlussarbeiten und Promotionen geschrieben werden.
Eine Lösung besteht in dem Schaffen domänenspezifischer Nano-Modelle sowie ihrer Netzwerke und Plattformen. Eine Zeitung wie der Freitag könnte ein Sprachmodell ausschließlich mit bisherigen Ausgaben trainieren: praktisch für Leser:innen und Redaktion. Heißt, anstatt auf die gigantischen und gleichzeitig immer unpräziser werdenden Modelle von OpenAI, Meta, Google und Amazon zu setzen, können eigene für unterschiedlichste Szenarien spezialisierte Modelle selbst produziert werden. Technisch gesehen ist das gar nicht so schwer umzusetzen und es lässt sich damit Souveränität zurückgewinnen.
Es gibt Musiker:innen und Künstler:innen, die KIs ausschließlich mit ihren eigenen Materialien, Bildern und Sounds trainieren, um diese als individuelle Kreativwerkzeuge zu nutzen. Diese Möglichkeit bietet sich aber auch Bibliotheken, Museen, Archiven, Forschungsinstituten und Universitäten, in deren Apparaten noch immer sehr viel nicht digitalisiertes Fachwissen schlummert, das der Öffentlichkeit nicht zugänglich gemacht wird. Um diese Form der Unabhängigkeit wiederzugewinnen, bräuchte es aber auch dringend Investitionen und Unterstützung der Bundesregierung und der EU – wenn sie denn genug Weitsicht besäßen. Zumal immense Potenziale darin zu finden sind.
Domänenspezifische Nano-Modelle lassen sich offline oder in privaten Clouds speichern, da das Trainingsmaterial verhältnismäßig überschaubar ist. Was es aber braucht, sind datenschutzkonforme Plattformen, um möglichst vielen Institutionen und Expert:innen den Zugang zu ermöglichen. Man könnte sich das als eine Art EU-basierten App Store vorstellen, in dem Archive und Spezialexpertisen als Sprachmodelle zugänglich gemacht werden, ähnlich der Plattform Europeana, die bereits Medien und Bücher aus Tausenden europäischen Kulturinstitutionen anbietet, allerdings Interaktivität vermissen lässt und somit gewissermaßen in Schönheit und Irrelevanz untergeht.
Eine generative KI ist nur so gut wie ihr Trainingsmaterial. Und dieses existiert. Kollektive Steuerungsfähigkeit ist daher eminent für die Zukunftsgestaltung und einen nachhaltigen Umgang mit KI. Ob dies ein frommer Wunsch bleibt oder als reale Chance begriffen wird, sollte als gesamtgesellschaftliche Aufgabe betrachtet werden. Man darf und sollte es sich – auch wenn es KI immer wieder suggeriert – nicht zu einfach machen.