Künstliche Intelligenz: Der Deepfake-Wahlkampf

Als Pop-Superstar Taylor Swift im September auf Instagram verkündete, sie werde Kamala Harris wählen, fand das auf der ganzen Welt Beachtung. Sie begründete ihr öffentliches politisches Bekenntnis unter anderem damit, dass mithilfe Künstlicher Intelligenz der Eindruck erweckt worden sei, sie würde nicht Harris, sondern Donald Trump unterstützen. Trump hatte auf seiner Plattform Truth Social eine Reihe von Bildern veröffentlicht, die suggerierten, Swift und viele ihrer Fans seien auf seiner Seite. Auf einem angeblichen Foto von Swift vor einer US-Flagge steht, sie rufe zu Trumps Wahl auf, andere Bilder zeigen junge Frauen, die T-Shirts mit der Aufschrift „Swifties for Trump“ tragen. Trump schrieb dazu die Worte „I accept“, er nehme also die vermeintliche Unterstützung aus Swifts Lager an. Die Sängerin sagte, die Episode habe in ihr „Ängste rund um KI“ geschürt. Deshalb habe sie beschlossen, „sehr transparent“ zu sein, wen sie wirklich wählen werde.

Das Verbreiten von Falschinformationen hat im diesjährigen Wahlkampf in den USA eine neue Dimension erreicht. KI macht Manipulation leichter denn je. Ständig tauchen neue Deepfakes auf, also Inhalte, die mithilfe von KI gefälscht werden und dabei oft echte Personen nachahmen. Mal sind es Fotos, mal Videos, oft werden auch die Stimmen manipuliert, um Kandidaten Dinge in den Mund zu legen, die sie gar nicht gesagt haben. „Dies ist der erste Wahlkampf, in dem KI-Instrumente für die breite Öffentlichkeit verfügbar und wirklich gut sind“, sagt Gail Pellerin, eine Politikerin aus dem kalifornischen Abgeordnetenhaus und Initiatorin eines kürzlich in dem Bundesstaat verabschiedeten Gesetzes. Es sieht innerhalb eines bestimmten Zeitraums vor und nach den Wahlen ein Verbot irreführender Inhalte wie Deepfakes vor, die sich um politische Kandidaten drehen.

Falsche Fans: Kurz nach diesem Eintrag von Donald Trump sprach Taylor Swift öffentlich Kamala Harris ihre Unterstützung aus.
Falsche Fans: Kurz nach diesem Eintrag von Donald Trump sprach Taylor Swift öffentlich Kamala Harris ihre Unterstützung aus.Truth Social

Inwiefern solche KI-Fälschungen tatsächlich den Wahlkampf beeinflussen, ist bisher eine offene Frage. In vielen Fällen dürfte es für die meisten Menschen recht leicht sein, Manipulationen zu erkennen, vor allem wenn es sich um Inhalte handelt, die Harris oder Trump darstellen sollen. Sie wirken oft comicartig. Das gilt zum Beispiel für das vom Multimilliardär und Trump-Unterstützer Elon Musk auf seiner Plattform X verbreitete Bild, das Harris in Kommunistenuniform zeigen soll. Oder ein Bild, auf dem ein Deepfake-Trump mit zwei Kätzchen davonrennt und dabei von zwei dunkelhäutigen Männern verfolgt wird – eine Anspielung auf Trumps Falschbehauptung, wonach haitianische Einwanderer Haustiere von Bewohnern einer Stadt in Ohio essen. Oder eine KI-Version von Trumps kürzlichem Wahlkampfauftritt in einer McDonald’s-Filiale, in der er Frittierfett verschüttet.

Es gibt aber auch reichlich Inhalte, die nicht ganz so offensichtlich als Fälschung zu identifizieren sind. Etwa ein Bild, mit dem einige Politiker der Republikanischen Partei nach dem Hurrikan Helene die Botschaft vermitteln wollten, die Regierung um Präsident Joe Biden tue nicht genug, um den Betroffenen zu helfen. Es zeigt ein verängstigt schauendes Mädchen, das mit einem kleinen Hund in einem von schmutzigem Wasser umgebenen Boot sitzt, während Regen auf sie einprasselt.

Beobachter schätzen die Gefahr, die von solchen Fälschungen ausgeht, in der jetzigen Endphase des Wahlkampfs als besonders hoch ein. „Ein wirklich überzeugendes Deepfake kurz vor der Wahl kann ausreichen, um einen desaströsen Effekt zu haben“, sagt Ilana Beller von Public Citizen, einer Verbraucherschutzgruppe, die sich nach eigener Beschreibung für die Verteidigung der Demokratie einsetzt. ­Miles Taylor, ein ehemaliger Stabschef im Heimatschutzministerium, meint, die Bedrohung bleibe auch über den Wahltag hinaus bestehen. In einem Gastbeitrag für die Zeitschrift „Time“ beschrieb er es als „sehr reale Möglichkeit“, dass nach der Wahl eine ganze Reihe von Deepfakes verbreitet werden, um Menschen zu überzeugen, dass die Wahl gestohlen worden sei. Zum Beispiel Videos, die vermeintlich Mitarbeiter in Wahllokalen zeigen, wie sie Stimmzettel zerstören. Politikerin Pellerin meint, man müsse „auf das schlimmstmögliche Szenario“ vorbereitet sein.

Die meisten der Deepfakes, die bisher größere öffentliche Beachtung fanden, scheinen eher im Sinne von Trump und den Republikanern zu sein. Manche von ihnen sind offenbar gezielte Versuche aus dem Ausland, die US-Wahl zu beeinflussen – ähnlich, wie es sie auch schon in früheren Jahren gab, nur diesmal unter Mithilfe von KI. Der Softwarekonzern Microsoft berichtete in der vergangenen Woche von Versuchen russischer Propagandagruppen, Harris mit Deepfakes zu schaden. Zum Beispiel in Form eines Videos, in dem eine gefälschte Stimme von ihr sagt, Trump könne „nicht einmal in Würde sterben“. In einem anderen manipulierten Video erhebt jemand, der sich als ehemaliger Schüler von Harris’ Vizekandidat Tim Walz ausgibt, den Vorwurf, er sei vor vielen Jahren von ihm sexuell belästigt worden. Das Video wurde nach Angaben von Microsoft allein auf X innerhalb von 24 Stunden fünf Millionen Mal angesehen.

Wird die KI-Flut zur Gefahr?

Die Tür zu diesen neuen technischen Möglichkeiten wurde vor fast genau zwei Jahren aufgestoßen, als das von Open AI entwickelte KI-System ChatGPT herauskam. Es erstaunte mit seiner Fähigkeit, kompetente Antworten auf Anfragen aller Art zu geben, und machte damit erstmals einer breiteren Masse das Potential solcher Technologien bewusst. Seither haben auch viele andere Unternehmen wie Google und Meta ihre Anstrengungen auf dem Gebiet forciert und neue KI-Angebote herausgebracht. Viele dieser Dienste sind über das Beantworten von Fragen hinaus auch in der Lage, Bilder und Videos zu generieren. Manche von ihnen wie ChatGPT erlauben es nicht oder nur sehr begrenzt, reale Personen wie etwa Politiker darzustellen. Es gibt aber auch weniger restriktive Alternativen wie das von Musks Unternehmen X.AI entwickelte Programm Grok.

Sophia Rosenfeld, Geschichtsprofessorin an der University of Pennsylvania und Autorin eines Buchs über die Verbreitung von Falschinformationen in der Politik, hält Deepfakes in mehrerlei Hinsicht für „beängstigender“ als bisherige Formen von Manipulation. Sie seien überzeugender, sie könnten innerhalb sehr kurzer Zeit in sehr großer Zahl produziert werden, und es sei besonders schwer, zurückzuverfolgen, von wem sie stammten. Ilana Beller von Public Citizen sagt, die Qualität von Deepfakes habe sich allein innerhalb der vergangenen zwölf Monate „rapide“ verbessert. „Wir kommen gerade erst an einen Punkt, an dem es wirklich schwer wird, zu unterscheiden, was real und was gefälscht ist. Und in der Zukunft wird es noch schwerer sein.“

Eine der ersten Deepfake-Aktionen, die im derzeitigen Wahlkampf für größere Aufregung sorgten, waren angebliche Anrufe von Joe Biden. Eine mithilfe von KI erzeugte und täuschend echt nach dem amtierenden Präsidenten klingende Stimme riet wenige Tage vor den Vorwahlen im US-Bundesstaat New Hampshire, nicht zur Wahl zu gehen. Im Juli verbreitete Elon Musk auf X ein Video mit einer Deepfake-Version der Stimme von Kamala Harris. Sie sagt darin, sie sei aus Diversitätsgründen als Kandidatin ausgewählt worden. Musk kennzeichnete das Video nicht als Parodie, womit er womöglich gegen die eigenen Nutzerregeln auf X verstieß. Demnach ist dort das Teilen manipulierter Medien verboten. Satire ist davon ausgenommen, allerdings nur, sofern sie nicht Verwirrung über die Authentizität der Inhalte stiftet. Beller meint, wenn jemand mit Musks Machtfülle Deepfakes verbreite, sei das eine besondere Gefahr für die Gesellschaft, zumal er die Thematik auf die leichte Schulter zu nehmen scheine.

Nicht alle Deepfakes zielen zwangsläufig darauf ab, Echtheit vorzugaukeln, zumal wenn sie eher leicht als Fälschung auszumachen sind. Nach Ansicht von Sophia Rosenfeld, der Geschichtsprofessorin, gilt das zum Beispiel für die Bilder mit Trump und den Tieren. Sie seien nicht so sehr dazu gedacht, Menschen zu täuschen, sondern dienten vor allem dazu, eine Botschaft zu unterstreichen. „Das ist wie die moderne Version eines T-Shirts oder eines Autoaufklebers.“ Was nicht heißt, dass Menschen nicht auch auf plumpe Manipulationen hereinfallen können. „Ich spreche mit vielen Leuten, die noch nie von Deepfakes gehört haben“, sagt Ilana Beller von Public Citizen. Und in solchen Fällen sei es auch denkbar, dass zum Beispiel die „Swifties for Trump“ für echt gehalten werden.

Wenn Deepfakes einmal als Fälschung entlarvt sind, sind sie damit nicht unbedingt in ihrer Wirkung neutralisiert. Als zum Beispiel klar wurde, dass das Bild von dem Mädchen nach dem Hurrikan nicht echt ist, haben es zwar manche, aber nicht alle Politiker von ihren Konten auf Plattformen wie X entfernt. Amy Kremer vom nationalen Organisationsgremium der Republikaner schrieb, es sei egal, wo das Bild herkomme. Es stehe „symbolisch“ dafür, was die Menschen durchmachten, deshalb werde sie es auch nicht löschen.

Die Verbreitung von Deepfakes bringt nicht nur die Gefahr mit sich, dass Menschen Fälschungen für echt halten. Es gibt auch den umgekehrten Effekt, dass es leichter wird, Dinge, die wahr sind, als falsch darzustellen. Zum Beispiel indem gesagt wird, es sei KI im Spiel gewesen, wenn unschmeichelhafte Fotos oder Videos auftauchen. Es lässt sich also ausnutzen, dass das Vertrauen in die Authentizität von Inhalten allgemein erschüttert ist, weil es so viele Fälschungen gibt. Dies wird auch „Liar’s Dividend“ („Lügnerdividende“) genannt. Trump hat diesen Kniff schon wiederholt angewendet. Er hat zum Beispiel die Falschbehauptung aufgestellt, Bilder einer großen Menschenmenge auf einer Kundgebung von Harris seien mithilfe von KI manipuliert worden und in Wahrheit sei „niemand“ dort gewesen.

„Die KI war’s“: Deepfakes und die „Liar’s Dividend“
„Die KI war’s“: Deepfakes und die „Liar’s Dividend“realDonaldTrump/Truth Social

Es gibt immer mehr Anstrengungen, den Einsatz von wahlrelevanten Deepfakes zu regulieren. Zwar sind entsprechende Gesetzentwürfe auf nationaler Ebene bisher gescheitert, dafür sind einzelne Bundesstaaten umso aktiver geworden. Ilana Beller sagt, zu Jahresbeginn habe es erst fünf Bundesstaaten mit Gesetzen zu Deepfakes rund um Wahlen gegeben, heute seien es zwanzig. Dabei ist der Weg nicht immer ohne Hindernisse, das von Gail Pellerin auf den Weg gebrachte Anti-Deepfake-Gesetz in Kalifornien zum Beispiel wurde kürzlich von einem Richter vorerst wieder blockiert. Damit ist aber das letzte Wort womöglich noch nicht gesprochen. Über dieses Gesetz hatte sich auch Elon Musk beschwert, er hat gesagt, es würde Parodie illegal machen. In Wahrheit sind Satire und Parodie ausdrücklich von Verboten ausgenommen, sofern Inhalte entsprechend gekennzeichnet sind. Pellerin sagt dazu: „Elon ist halt ein bisschen theatralisch, nicht wahr?“