faktenfinder
Besonders in Krisenzeiten sind Menschen anfällig dafür, Falschbehauptungen zu glauben – und davon gab es zuletzt viele. Auch wenn es oft schwer ist, gibt es einige Tipps, um Desinformation zu entlarven.
Krieg in Nahost, Krieg in der Ukraine, dazu ungelöste Probleme wie der Klimawandel: Seit der Corona-Pandemie folgt eine Krise auf die nächste. Bei den sich überschlagenden Ereignissen den Überblick zu behalten, fällt schwer – und ebnet Falschbehauptungen den Weg, für bare Münze genommen zu werden.
Auch wenn das absichtliche Verbreiten von falschen Inhalten – die Desinformation – kein neues Phänomen ist, gibt es dennoch Faktoren, die die Verbreitung aktuell sehr begünstigen.
„Die Medienumgebung hat sich stark verändert“, sagt Lena Frischlich, Professorin am Digital Democracy Center (DDC) der University of Southern Denmark. „Es ist viel leichter geworden, vor allem über digitale und soziale Medien eine große Öffentlichkeit zu erreichen. Und das führt dazu, dass auch unbestätigte Informationen viel leichter verbreitet werden können.“ Hinzu komme, dass die Menschen immer mehr Zeit online verbringen. Dadurch kämen sie öfter mit Falschbehauptungen in Kontakt.
KI-generierte Inhalte auf dem Vormarsch
So sind mit künstlicher Intelligenz (KI) erstellte Videos mittlerweile Alltag. Zu nahezu jedem nachrichtlich relevanten Ereignis kursieren binnen kürzester Zeit Bilder oder Videos, die suggerieren, sie würden authentische Inhalte der Situation liefern, jedoch in Wirklichkeit KI-generiert sind.
Mithilfe von KI können so „gefühlte Wahrheiten“ bebildert werden, die im Netz gezielt ein bestimmtes Publikum erreichen sollen. „Dadurch können die eigene Haltung, die eigenen Werte verstärkt angesprochen werden, so dass der Impuls entsteht, solche Inhalte weiterzugeben – in gleicher oder in modifizierter Form“, sagt Andreas Dengel, Geschäftsführender Direktor des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI). Das könne einen Schneeballeffekt bewirken.
Die Technik zur Erstellung dieser Inhalte hat sich rasant weiterentwickelt. Dazu kommt, dass zahlreiche Tools mittlerweile kostengünstig oder kostenfrei für die breite Masse zugänglich sind.
Besonders im Bereich der Erstellung von Video- und Audioinhalten habe sich die Technik deutlich weiterentwickelt, sagt Martin Steinebach, Leiter der Abteilung Media Security und IT Forensics am Fraunhofer-Institut für Sichere Informationstechnologie SIT/ATHENE. „Natürlich klingende Stimmen und authentisch wirkende Bilder bekommt man mittlerweile schon gut hin. Auch von zu Hause aus auf dem Heimrechner.“
„Nicht mehr als Fälschung zu erkennen“
Gezielt eingesetzte KI-Inhalte zu Desinformations- oder Propagandazwecken, wie es beispielsweise staatliche Akteure tun, sind oft so professionell erstellt, dass kaum noch Auffälligkeiten zu finden sind. Desinformation wird mittlerweile als Teil einer hybriden oder digitalen Kriegsführung eingesetzt. Im russischen Krieg gegen die Ukraine spielen etwa verschiedene groß angelegte Desinformationskampagnen eine Rolle.
„Wenn staatliche Akteure dahinter stehen, ist davon auszugehen, dass sie über ganz andere Ressourcen verfügen und ein ganz anderes Wissen vorhanden ist. Da muss ich einfach davon ausgehen, dass Bilder und Videos erzeugt werden können, die der Endnutzer nicht mehr als Fälschung erkennen kann“, so Steinebach.
Worauf kann man achten?
Doch eine Vielzahl der KI-generierten Inhalte, die im Netz kursieren, sind nicht von Profis erstellt worden und weisen noch immer Fehler auf. Oft sind es kleine Details, anhand derer man erkennt, ob ein Video die Realität abbildet oder nicht.
Schatten und Reflexion werden oft fehlerhaft von der KI dargestellt. Ebenso wie Spiegelungen häufig noch fehleranfällig sind. Ein Klassiker laut Steinebach: „Im Spiegelbild verschwindet auf einmal die Sonnenbrille.“ Auch lohne es sich, auf untypische Fingerhaltungen zu achten. Bei gefalteten Händen fließen die Finger manchmal noch ineinander über oder es sind Verzerrungen zu sehen.
Auch Dengel sieht vor allem in Details Anhaltspunkte, um KI-generierte Inhalte zu enttarnen. „Am Übergang von Vordergrund zum Hintergrund sind oft kleine Artefakte festzustellen. Auch die Beleuchtung, der Schattenwurf, der kann sehr unterschiedlich sein von dargestellten Objekten. Da stimmt die Richtung plötzlich nicht mehr oder das Gesicht ist anders belichtet als die Kleidung des Menschen.“
KI-Systeme haben nach wie vor oft Schwierigkeiten mit Schriften. So kann man auf beleuchtete Reklame, Verkehrsschilder oder Logos achten.
Bilderrückwärtssuche oft hilfreich
Doch bei weitem nicht alle Desinformationen sind KI-generiert. So sind sehr viele falsche Inhalte, die im Netz verbreitet werden, aus dem Kontext gerissene Bilder und Videos, die in Wahrheit völlig andere Situationen zeigen.
Mit der Bilderrückwärtssuche lassen sich viele gefälschte oder im falschen Zusammenhang geteilte Inhalte aufdecken. Um zu überprüfen, ob Bilder aktuell sind, kann eine Rückwärtssuche über Google oder Yandex in vielen Fällen bereits zielführend sein. Die Suchmaschinen können das Netz nach gleichen oder ähnlichen Bildern durchsuchen, so dass bereits verwendete Bilder entdeckt werden können. Da auch ähnliche Bilder angezeigt werden, können manipulierte Inhalte entlarvt werden.
Desinformation kann weitreichende Folgen haben
Besonders in Krisenzeiten haben Menschen das Bedürfnis nach Informationen, sagt Frischlich vom DDC. Die sozialen Netzwerke seien dabei eine beliebte Anlaufstelle, da hier schnell Bilder und Videos verbreitet werden. „Es ist jedoch viel leichter, Gerüchte oder unüberprüfte Informationen zu verbreiten, als richtig handwerklichen Journalismus – also sich hinzusetzen, zu recherchieren und mit verschiedenen Quellen zu sprechen. Das dauert einfach viel länger.“
Der stetige Kontakt mit Desinformation kann weitreichende Folgen haben. „Wir wissen aus sehr vielen Studien, dass der Konsum von Desinformationen dazu führen kann, dass wir faktische Inhalte schlechter abrufen können“, so Frischlich. Der Speicher im Gehirn werde sozusagen „zugemüllt“ und es werde schwieriger, die richtige Information zu finden.
Wichtig ist es laut Frischlich, den Menschen bewusst zu machen, dass sie der Verbreitung von Desinformationen entgegenwirken können. „Es hilft im Großen und Ganzen bereits, gründlich darüber nachzudenken, bevor man einen Inhalt teilt. Das können wir alle machen.“ Denn je weniger Reichweite Desinformationen bekämen, desto weniger Schaden könnten sie anrichten.
Source: tagesschau.de