Der Bundestagswahlkampf 2025 ist der erste, in dem künstliche Intelligenz einer breiten Masse zugänglich ist. Die politische Kommunikation könnte das grundlegend verändern. Andreas Jungherr ist Experte für die Rolle von künstlicher Intelligenz für Demokratien und Wahlkampf. Er rät von Skepsis ab. Wer sich jetzt aus Angst zurückhält, sagt er, an dem ziehen die Entwicklungen vorbei.
ZEIT ONLINE: Im Herbst kursierte ein Fake-Video, in dem Friedrich Merz vermeintlich sagte: „Ich muss gar keine Lösungen anbieten, solange ich die anderen als inkompetent darstellen, lächerlich machen und diskreditieren kann.“ Das Video wurde dann von einem SPD-Politiker geteilt. Könnten solche Deepfakes, also KI-generierte, täuschend echt wirkende Inhalte, den Bundestagswahlkampf beeinflussen?
Andreas Jungherr: Auch zur Wahl in den USA gingen einige Deepfakes um. Sie waren aber leicht als solche erkennbar und haben nicht zu einer Wählertäuschung im großen Stil beigetragen, das wurde untersucht. Häufig waren das humoristische Inhalte, es war klar, dass es sich um Fälschungen handelt. Nach den Abläufen in den USA gehe ich nicht davon aus, dass wir es in Deutschland ernsthaft mit Wählertäuschung durch Deepfakes zu tun haben werden.
ZEIT ONLINE: Insgesamt hat Desinformation keinen nennenswerten Einfluss auf den US-Wahlkampf genommen. Gibt es also gar kein Problem?
Jungherr: Ich glaube, dass künstliche Intelligenz politische Kampagnen zwar verändert, aber noch keine große Gefahr für sie darstellt. In den USA hat die republikanische Kampagne im Wahlkampf stark mit KI-generierten Bildern gearbeitet. Sie wurden aber meist verwendet, um Botschaften der eigenen Kampagne zu illustrieren. Ich kann eben zehnmal „Comrade Harris“ sagen, aber ein Bild von Kamala Harris in Uniform, mit Hammer und Sichel auf der Kappe, ist viel wirkmächtiger. Klar kann man diskutieren, ob das geschmackvoll oder angemessen ist, aber nicht alles, was KI generiert, ist gleich eine Täuschung oder neu. Früher hätte man eine Karikatur gezeichnet.
ZEIT ONLINE: CDU, SPD, Grüne, FDP und Linke verpflichten sich, die Verwendung von KI immer kenntlich zu machen, AfD und BSW hingegen nicht. Was erhoffen sie sich davon?
Jungherr: Was ist mit KI gemeint? Wenn ich ein Foto mache und darüber einen Instagram-Filter lege, dann arbeitet dort auch eine KI. Es ist unklar, wo diese Verpflichtung überhaupt anfangen soll. In vielen Punkten finde ich die Verwendung von KI unproblematisch. Wenn sie dazu genutzt wird, dass politische Inhalte zielgruppengerecht aufbereitet werden, haben wir alle gewonnen. Bei vielen Partei-Websites würde man sich das wünschen.
ZEIT ONLINE: Es hat also nichts zu bedeuten, dass ausgerechnet AfD und BSW nicht ihre Nutzung von KI regulieren wollen?
Jungherr: Ich glaube, AfD und BSW haben kein Interesse daran zu signalisieren, dass sie sich an die Regeln der etablierten Parteien halten. Sie inszenieren sich als die Herausforderer des Status quo. Da passt es ins Bild, dass sie sich nicht mit den anderen Parteien zusammensetzen und sich auf gemeinsame Spielregeln einigen wollen.
ZEIT ONLINE: Finden Sie, die Nutzung von KI im politischen Kontext muss nicht kenntlich gemacht werden?
Jungherr: In den USA zeigt sich, dass die meisten Fälle von Täuschung im Wahlkampf, ob mit KI oder ohne, nicht aus den Parteizentralen kommen, sondern von einzelnen Unterstützern oder parteinahen Gruppierungen. Entsprechend hilft eine Selbstverpflichtung zur Kenntnismachung von KI-Inhalten durch Parteien nicht viel. Und wer entscheidet, Friedrich Merz falsche Worte in den Mund zu legen, wird das auch nicht kennzeichnen.
ZEIT ONLINE: Das Wahlvideo der Brandenburger AfD, in dem blonde Familien verschleierte Massen auf dunklen Straßen gegenüberstehen, war gut als KI-generiert erkennbar. Trotzdem wird damit eine gefühlte Wahrheit vermittelt, die der Wirklichkeit kaum entspricht.
Jungherr: Politische Akteure haben immer bestimmte Narrative, die sie verbreiten. Gerade bei populistischen Parteien transportieren diese Narrative häufig gefühlte anstelle von tatsächlichen Wahrheiten. Künstliche Intelligenz ermöglicht ihnen, mit großer emotionaler Schlagkraft zu erzählen, wie es sein könnte. Übersteigerte Symbolbilder erzeugen mehr Interaktionen, mehr Empörung und mehr Kontroverse, das wiederum erzeugt Sichtbarkeit: KI-generierte Bilder verhelfen zu großer Präsenz im Diskurs. Gleichzeitig kann das genau gegenteilig wirken. Was die Partei vermitteln will, ist offensichtlich nicht real, sonst müsste es nicht KI-generiert werden. Man zeigt damit also immer auch die Schwäche seines Claims.
ZEIT ONLINE: Welche Szenarien bereiten Ihnen Sorge?
Jungherr: Was passiert mit einer politischen Öffentlichkeit, wenn künstliche Intelligenz den Zugang zur Realität bestimmt? Heute nutze ich Nachrichten-Apps oder Suchmaschinen, um die wichtigsten Nachrichten des Tages zu finden. Zukünftig werden wir wahrscheinlich ein KI-System nach den wichtigsten Nachrichten des Tages befragen. Da greifen Sprachmodelle auf unterschiedliche Quellen im Internet zu und mixen daraus eine Zusammenfassung.
ZEIT ONLINE: Was sehr praktisch sein kann.
Jungherr: Wenn es um die Frage geht, wo man heute am besten essen gehen soll. Aber es wird schwierig, wenn man sich darauf verlässt, dass zusammengefasst wird, was die wichtigsten politischen Nachrichten sind. KI-Sprachmodelle suchen immer nach der Häufigkeit von Wortkombinationen. Sie antworten mit der wahrscheinlichsten Wortfolge auf einen bestimmten Input. Damit erhält man immer den Durchschnitt möglicher Antworten. Ausreißer werden ausgefiltert. Wenn Sie eine KI ein Bild von einem Arzt generieren lassen, ist der deshalb meist weiß und männlich. Nicht weil Ärzte überwiegend männlich oder weiß sind, sondern weil sie eben häufig so dargestellt werden. Eine ähnliche Logik greift bei der Selektion von Nachrichten und Meinungen: Wenn die wichtigsten fünf Tageszeitungen eine Nachricht priorisieren, dann kommt die Randmeldung, die ganz unten auf der Seite steht, nicht mehr vor, Minoritätspositionen kommen nicht mehr vor. Es geht nur noch um Mehrheiten.
ZEIT ONLINE: Sie sagen, dass künstliche Intelligenz Autokratien stärken könnte. Wie das?
Jungherr: Das ist bisher nur eine These, die häufig am Beispiel von China aufgestellt wird. Manche sagen, China ist besser als westliche Gesellschaften dazu fähig, KI zu entwickeln und in der Gesellschaft zu etablieren. China könne menschliches Verhalten in unterschiedlichen Bereichen einfacher dokumentieren, außerdem würden KI-gestützte Systeme in Wirtschaft, Unterhaltung und Regierung breit genutzt. Diese Bedingungen könnten unter Umständen dazu führen, dass China oder vergleichbar organisierte Autokratien gesellschaftliche Fortschritte in Lebensqualität und Wirtschaftswachstum machen, die Demokratien verwehrt bleiben. Bisher bleibt das aber Spekulation.
ZEIT ONLINE: Im Umkehrschluss könnte KI aber auch liberale Demokratien unterstützen.
Jungherr: In den liberalen Demokratien verlieren die klassischen politischen Medien derzeit an Reichweite. Eine zentrale Frage ist daher, wie man all die Menschen erreicht, die keine etablierten Medien mehr nutzen. Man wird in den nächsten Jahren sehen, dass politische Akteure mehr KI einsetzen werden, um besser und direkter mit Menschen zu kommunizieren, die sie sonst nicht mehr erreichen würden. Eine Möglichkeit wäre es, dass KI-Produkte Meinungen und Stimmungen auf sozialen Medien analysieren, sie strukturieren, zusammenfassen und wichtige Punkte hervorheben. So könnten Politiker Probleme besser adressieren und angehen. Damit der demokratische Diskurs gewinnt, muss aber sichergestellt sein, dass nicht nur Mehrheitspositionen sichtbar gemacht werden.
ZEIT ONLINE: Was ist Ihre Prognose für 2029? In diesem Jahr will die AfD die Wahl gewinnen.
Jungherr: An KI würde das aber nicht hängen. Wenn es um KI im Wahlkampf geht, dann wird die Kernfrage eher sein, ob es den etablierten Parteien auf dem Weg bis 2029 gelingt, mit KI zu experimentieren und ihre Mitglieder dazu zu ermutigen, sich auszuprobieren. Wirklich schädlich wäre es, wenn sich die politischen Akteure aus Skepsis oder Angst aus digitalen Kommunikationsräumen zurückziehen und gar nicht damit beschäftigen, wie man KI in der politischen Kommunikation einsetzt. Alarmismus ist der falsche Weg. Wir haben vier spannende Jahre vor uns, die die Parteien unbedingt nutzen sollten, um sich den kommenden Herausforderungen bestmöglich zu stellen.