KI-Schwärme: Neue Gefahr z. Hd. die Demokratie?

Ein Mann tippt in einem dunklen Raum auf einem Laptop.

Stand: 17.02.2026 07:30 Uhr

Forschende warnen vor KI-Schwärmen: Zahlreiche KI-Agenten könnten wie echte Menschen auftreten und als Schwarm die Illusion einer Mehrheitsmeinung auslösen.

Von Anja Braun und Ralf Kölbel, SWR

Es könnte der nächste große Schritt in der digitalen Manipulation sein: sogenannte KI-Schwärme. Nicht mehr einzelne Bots, die Falschinformationen verbreiten – sondern ganze Gruppen künstlicher Persönlichkeiten, die wirken wie echte Nutzerinnen und Nutzer. Sie diskutieren miteinander, reagieren auf Menschen, passen sich der Stimmung an und erzeugen so etwas wie einen künstlichen gesellschaftlichen Konsens.

Davor warnt ein internationales Forschungsteam im Science Policy Forum. Denn dieser künstliche Konsens, so die Forschenden, könnte unsere Demokratie ins Wanken bringen. Der Sozialdatenforscher David Garcia von der Universität Konstanz beschreibt das so:

Wir sprechen von einem System aus KI-Agenten, die von einer Person oder einer Organisation gesteuert werden können. Sie verfügen über eine beständige Identität und ein Gedächtnis. Sie simulieren eine Art Mensch. Sie können auf ein Ziel hin koordiniert werden, aber sie können dennoch variieren, wie sie sprechen. Sie können auch auf Echtzeitereignisse und menschliche Reaktionen reagieren.

Damit unterscheiden sich diese Systeme deutlich von früheren Bot-Netzwerken, die meist leicht zu erkennen waren. KI-Schwärme könnten dagegen über viele Plattformen hinweg auftreten und sich gegenseitig bestätigen.

Simulation alternativer Gesellschaften

Der Konstanzer Forscher Garcia warnt: „Jetzt können sie große Sprachmodelle – also LLMs – nicht nur zur Entwicklung einzelner Chatbots einsetzen, sondern auch, um eine alternative Gesellschaft zu simulieren.“ Das könne dazu genutzt werden, Menschen zu überzeugen, ihre Meinung oder ihre Unterstützung für Politiker zu ändern. Das könnten solche KI-Schwärme in einem langsamen, aber beharrlichen Prozess erreichen.

KI-Schwärme können auf gesellschaftliche Normen einwirken

Die Gefahr liegt nicht in einzelnen Falschmeldungen, sondern in einem künstlich erzeugten Konsens, der dann gesellschaftliche Normen verschieben kann. Wenn viele scheinbar unabhängige Stimmen dieselbe Position vertreten, entsteht der Eindruck einer Mehrheit – selbst wenn sie nicht existiert.

Noch gibt es keinen bestätigten Fall eines voll entwickelten KI-Schwarms. Doch erste KI-gesteuerte Netzwerke wurden bereits entdeckt. Garcia warnt: „Es gibt noch keinen Präzedenzfall, aber die Hürde ist nicht so hoch. Die Sprachmodelle, die dies ermöglichen können, sind frei zugänglich. Man braucht nur Rechenleistung und einen Anreiz.“

Lösungsansätze aus der Wissenschaft

Deshalb sei jetzt der richtige Zeitpunkt, so Garcia, um Gegenmaßnahmen zu entwickeln. „Wir sehen, dass es fast so weit ist, und wir versuchen, das zu verhindern, indem wir diesen Artikel geschrieben haben“, erklärt der Konstanzer Datenforscher David Garcia. Um demokratische Prozesse zu schützen, plädiert das Forschungsteam für frühzeitiges Handeln. Inhalte sollten mithilfe von Mustererkennung auf koordiniertes Verhalten geprüft werden, um künstliche Schwärme schneller zu identifizieren.

Ergänzend könnte eine unabhängige Beobachtungsstelle entstehen, die plattformübergreifend überwacht, wie KI-Agenten Debatten beeinflussen. Je früher solche Netzwerke sichtbar werden, so Garcia, desto schwerer fällt es ihnen, Vertrauen zu untergraben und echte Meinungsvielfalt zu überdecken.

Source: tagesschau.de