Skip to main content

Schau Dir diese beiden Bilder an (Quelle: t3n [1])

Kannst Du unterscheiden, welches Bild echt und welches gefälscht ist? Die KI bringt zahlreiche Vorteile: Sie löst Probleme selbständig und führt zu Automatisierung oder Effizienzsteigerung. Gleichzeitig erschafft sie unglaublich viel – und nicht alles ist echt.

Nun stell Dir vor, ein Video eines bekannten Politikers wird veröffentlicht, in dem er schockierende Aussagen oder Hassreden verbreitet. Nichts davon ist echt. Doch wer weiß, dass es sich um eine Fälschung handelt? Und wer denkt, die Situation hätte genau so stattgefunden?

Noch vor ein paar Jahren war es deutlich zu erkennen, welches Bild echt und welches eine Fälschung ist. Hände hatten auf Bildern regelmäßig zu viele oder zu wenig Finger [2]. Noch auffälliger waren unförmige Darstellungen in Videos. Doch mittlerweile können durch künstliche Intelligenz real wirkende Bilder und täuschend echte Videos kreiert werden – mit wenig Expertise und Aufwand. Jede:r hat freien Zugang zu KI-Tools. Das bedeutet, in der Theorie könnte jede:r sogenannte Deepfakes erstellen: Videos, Bilder oder Tonaufnahmen, die durch KI kreiert sind und täuschend echt wirken [3].

Auf der anderen Seite kann jede:r, von dem es Bilder im Internet gibt, Opfer von Deepfakes werden. Mit nur wenigen Fotos kann die KI Bilder erstellen. Je mehr Material, desto besser das Ergebnis. Gerade von in der Öffentlichkeit stehenden Persönlichkeiten existieren im Internet genug Bilder oder Videos [4]. Entsprechendes gilt für Politiker:innen oder Schauspieler:innen, wie dieses vom Stern veröffentlichte Video zeigt:

(Quelle: https://www.youtube.com/watch?v=d7TWHRtw5u8)

Wenn es so einfach ist, kann man mit solchen Deepfakes Meinungen, Gesellschaft oder sogar Wahlen beeinflussen?

Insbesondere zu Zeiten einer Wahl ist der Ruf aufgestellter Vertreter:innen von hoher Relevanz – in Deutschland also genau jetzt. Um diesen Ruf zu beeinflussen, könnten Unterstützer:innen einer Seite ein Video der Gegnerin/ des Gegners erstellen, in dem diese:r Worte von sich gibt, die er in Wirklichkeit nie gesagt hat. Das Video, in dem Olaf Scholz die AfD verboten habe, ist nur eines von vielen Beispielen, in denen Aussagen von Politiker:innen gefälscht werden [5]. Verbreitet sich das Video, wird es bei guter Qualität von großen Teilen der Bevölkerung nicht zwingend als Fälschung erkannt. Das bedeutet nicht, dass jede:r den Inhalt des Videos als wahr einstuft. Dennoch, die Möglichkeit besteht,  dass Personen dem Video Glauben schenken. Dadurch können Bevölkerungsteile einerseits positiv in ihrer Einstellung zu dargestellten Politiker:innen beeinflusst werden, da sich jemand im Video plötzlich für die Umwelt einsetzt, der in Wahrheit eine andere Ansicht vertritt. Gleichzeitig kann man Politiker:innen in den Dreck ziehen, indem man sie zum Beispiel gesetzwidrige Dinge tun lässt. So würde man die Meinung der Bevölkerung über diese Person negativ beeinflussen.

Wird ein Deepfake Personen im richtigen Kontext und zum richtigen Zeitpunkt gezeigt, steigert dies die Glaubhaftigkeit. Durch ein Beispiel wird es deutlicher: Donald Trump musste sich in der Vergangenheit vor Gericht verantworten [6]. Eine Person liest diesen Artikel. Am nächsten Tag wird ihr ein gefälschtes Video gezeigt, in dem Trump von der Polizei abgeführt wird. Wäre das Video in einem anderen Kontext gezeigt worden, hätte die Person es vielleicht nicht geglaubt. Jetzt, durch den zuvor gelesenen Artikel, gewinnt das Video an Glaubhaftigkeit. Nicht unbedingt die generative KI sucht aus, wem was gezeigt wird. Unter Anwendung von Algorithmen und Machine Learning werden schon lange Daten analysiert und Inhalte passend zum Konsumverhalten der Zielperson ausgespielt [7]. Aber die Kombination aus Microtargeting und generativen KI kann Menschen umso besser von Fälschungen überzeugen, eben weil der gefälschte Inhalt so gut in den Kontext passt.

Wie sieht es in der Realität aus? – Wahlkampf in den USA

Um das Thema greifbar zu machen, lohnt sich ein Blick auf den Wahlkampf zwischen Kamilla Harris und Donald Trump in den USA. Eines der bekanntesten Beispiele ereignete sich bereits im Januar 2024: Einwohner:innen aus  New Hampshire wurden mit der Stimme von Joe Biden angerufen. In diesen Anrufen wurden Demokrat:innen zum Nicht-Wählen aufgefordert. Auch die Absender-Information war gefälscht. So entstand das Bild, als kämen die Anrufe von einem politischen Komitee der Demokratischen Partei [8]. Der politische Berater Steve Kramer gestand die Beauftragung dieser Robo-Calls. Angeblich beabsichtigte er, der Welt zu zeigen, wie gefährlich KI in der Politik sein kann [9].

Auf der Plattform Truth Social erschienen Bilder, auf denen junge Frauen T-Shirts mit der Aufschrift „Swifties for Trump“ tragen. Erst bei genauerer Betrachtung fallen zwei Kaffeebecher oder der abgeschnittene Gürtel der rechts abgebildeten Frau auf:

(ACHTUNG – FAKE, Quelle: Truth Social/@realDonaldTrump; x.com/@akafacehots, [10])

Zudem zeigte die Plattform ein Bild, auf dem Taylor Swift vor einer US-Flagge steht. Darauf fordert sie auf, für Trump zu wählen. Donald Trump kommentiert Ende August diese Bilder mit den Worten „I accept“ (auf welches genau er sich bezieht, bleibt unklar). Die Bilder wurden mit Hilfe von künstlicher Intelligenz erstellt. Kurz darauf verkündete Taylor Swift, dass sie Kamilla Harris unterstütze [11]. Gleichzeitig wurde von Kamilla Harris ein falsches Bild verbreitet. Es zeigt sie neben Jeffrey Epstein, einem bereits toten, amerikanischen Sexualstraftäter. Tatsächlich ist in der originalen Version Kamilla Harris neben ihrem Ehemann Douglas Emhoff dargestellt [12].

Das sind nur einige von vielen Beispielen, die sich im letzten Jahr in den USA ereigneten. Sieht man von rein generativer KI ab, kann KI helfen, Kampagnen spezifischer auszuspielen. Zum Beispiel kann ein Abgleich der Telefonnummern von Wahlberechtigten und Wahllokalen erfolgen. So wird das Wahllokal ausfindig gemacht, in welchem eine Person wählen gehen würde. Dies ermöglicht das Ausspielen von stark personalisierten Falschnachrichten. Wird eine Person angerufen und darüber informiert, dass genau das zuständige Wahllokal des Wohnorts gesperrt sei aufgrund eines technischen Defekts, steigert diese Personalisierung die Glaubhaftigkeit (Beispiel von Tim Harper, [13]).

Aber wie sehr glauben Menschen das, was fälschlicherweise verbreitet wurde?

Verstärkte Auswirkungen könnten Deepfakes vor allem auf „Wechsel-Wähler:innen“ haben, die sich nicht entscheiden können, wen sie wählen wollen. Denn Wähler:innen mit einer klar gesetzten Meinung lassen sich selten noch von der anderen Seite überzeugen, die Wechselwähler:innen dagegen schon. Zudem ist der Zeitpunkt entscheidend für den Einfluss der verbreiteten Inhalte: Je näher an der Wahl, desto niedriger ist der Reaktionszeitraum. KI-Einsätze kurz vor der Wahl sind somit schwieriger aufzudecken. Die Wahrscheinlichkeit, den Fake nicht mehr enttarnen zu können, steigt [13].

Der direkte Einfluss auf die Wahlergebnisse lässt sich jedoch schwer sagen. In einer Befragung konnte man feststellen, dass viele Menschen von sich behaupten, einen Deepfake nicht erkennen zu können. Ein großer Teil der Befragten gab an, schon mal auf einen Deepfake reingefallen zu sein [14]. Diese Information reicht allerdings nicht, um Aussagen treffen zu können. Es müsste ermittelt werden, wie stark die Zielperson durch diesen Fake ihre Meinung ändert – und ob nur der Deepfake oder ein weiterer Umstand Grund der Beeinflussung ist. Durch Schwierigkeiten in der empirischen Überprüfung ist der tatsächliche Einfluss von Deepfakes kaum messbar. Aktivitäten, die direkt auf Wahlen abzielen, können durch Aktivitäten in anderen Bereichen ergänzt werden, zum Beispiel Deepfakes als Teil von Desinformationskampagnen [15]. Sind dann die Deepfakes das Problem, oder die Desinformationen an sich?

Wie sehr verstärken Deepfakes die Desinformationen?

Falsche Nachrichten oder unwahre Behauptungen werden schon seit langer Zeit verbreitet und sind vor allem in den Vereinigten Staaten ein Thema [16]. Auch ohne künstliche Intelligenz ist das Internet voll von Desinformationen. Daraus folgt, dass Menschen grundsätzlich immer weniger Vertrauen in mediale Informationen haben, da man nicht weißt, welche Informationen wirklich wahr sind [17]. Als audio-visuelles Wesen glaubt der Mensch im ersten Schritt, was jemand in einem Video tut oder sagt [18]. Durch Deepfakes könnte das Misstrauen somit verstärkt werden, da sie falsche Informationen durch Bilder oder Videos unterstützen [17]. Für die politische Willensbildung ist es jedoch elementar, dass die Bevölkerung den Informationsquellen vertraut – und das ist wiederum relevant für die Wahrung Demokratie [17]. Auch in einer Schweizer Studie wurde das Misstrauen in Informationsmedien als größtes Risiko durch Deepfakes wahrgenommen [19].

Die Taktik „falsche Informationen schaffen Misstrauen“ zeigt sich auch im Wahlkampf in den USA: Die Verwirrung wird groß, man kann immer schwieriger erkennen, was vernünftige, rationale Inhalte sind oder was fake ist. Steve Bannon, ein ehemaliger Berater von Donald Trump, sagte 2018, die wahre Opposition seien die Medien. Und sein Weg, damit umzugehen: „to flood the zone with shit“– ganz fern von der Realität ist das nicht [20]. Das „Edelman Trust Barometer“ (veröffentlicht auf Statista) bestätigt dies: Bereits jetzt liegt ein Misstrauen gegenüber Nachrichten vor, es zeigt sich ein Trend des sinkenden Vertrauens gegenüber Medien in den letzten Jahren. 2023 vertrauten 39% der Bevölkerung aus den USA den Nachrichten grundlegend. In Deutschland waren es 46% [21]. Deep Fakes haben das Potenzial, diesen Trend weiter zu verstärken.

Künstliche Intelligenz als Deckung

Denkt man das Prinzip in die andere Richtung, kann künstliche Intelligenz nicht nur zur Kreation von Inhalten verwendet werden. Taten können einfach auf KI geschoben und als Deepfake betitelt werden. Ein Beispiel dafür ist Marc Robertson, der sich in einem Video als Black Nazi bezeichnet hat. Er selbst betitelte das Video als KI-Fake. Mittlerweile wurde nachgewiesen, dass das Video echt ist [22]. Durch diese Möglichkeit können auch Politiker:innen Skandalen entkommen und die Wählerschaft leichter erhalten. So wird Transparenz verschleiert und Rechenschaft erschwert [23]. Noch kann man Inhalte in der Regel relativ zuverlässig auf Echtheit überprüfen lassen. Aber wer weiß, wie sich das zukünftig entwickelt. Sowohl Deep Fakes und Desinformationen, als auch wahrheitsgetreue Nachrichten gehen durch das Netz. Das führt zur Frage:

Wie erkennt man gefälschte und reale Inhalte? Was verbreitet sich schneller?

Da Desinformationen, insbesondere dargestellt durch Deepfakes, sensationeller kreiert und anzusehen sind, verbreiten sie sich schneller als die Realität. Es erscheint irgendwie interessanter, größer, doller – auch wenn es teilweise unrealistisch ist und man das vielleicht sogar weiß [24]. Na super… 

Und wie erkennt man sie? Als „normaler“ Teil der Bevölkerung ist ein Fake bei guter Qualität kaum von wahren Inhalten zu unterscheiden. Es gibt Plattformen wie TrueMedia (https://www.truemedia.org/) oder Reality Defender (https://www.realitydefender.com/), die prüfen, ob ein Beitrag KI-generiert ist oder nicht. Allerdings könnten die Ergebnisse aus solchen Prüfungen in die nächsten Generationen der generativen KI einbezogen werden, es kann also eine Art „Rüstungswettlauf“ entstehen [18]. Zudem wird nicht jede Person Inhalte überprüfen, die Plattformen kennen oder im gewissen Kontext überhaupt damit rechnen, dass es sich gerade um einen Deepfake handelt. 

Was kann man dann tun, um die Verbreitung von Deep Fakes zu verhindern?

Im Mai 2024 wurde der AI-Act verabschiedet. Er schreibt vor, dass KI-Anwendungen nicht missbraucht werden dürfen. Zudem ist darin die Transparenzpflicht festgelegt: Durch KI generierte Inhalte müssen eindeutig also solche gekennzeichnet sein [25]. Das ist ein erster Schritt, dennoch bedeutet dies nicht, dass sich jeder an dieses Gesetz hält. Auch existieren Diskussionen zu Wasserzeichen in KI generierten Bildern. Wie zuverlässig diese sein können und ob nicht auch das auszutricksen ist, bleibt offen [26]. Die Medienkompetenz muss gestärkt werden, sodass jede:r eine Differenzierung zwischen echt oder fake vornehmen kann oder Methoden zur Überprüfung der Glaubwürdigkeit eines Inhalts erlernt [19].

Für jede:n einzelnen bleibt vorerst der gesunde Menschenverstand, mit dem man sich das bestmögliche Bild macht: Redet mit anderen über das, was ihr seht. Sind Darstellungen vielleicht zu übertrieben oder unrealistisch? Und auch, wenn das Vertrauen in die Medien wichtig ist, glaubt nicht alles, was ihr seht, vor allem nicht von jeder Quelle. Die Bevölkerung muss wohl anfangen, Inhalte kritischer zu hinterfragen und sich eventuell ein zweites oder drittes Mal über andere Quellen zu informieren. 

Wie kritisch hast Du eigentlich die Bilder oben hinterfragt? Zur Auflösung: das linke Bild ist mithilfe von KI generiert, rechts ist echt. Also: Passt auf, was ihr seht, vor allem bei der kommenden Budestagswahl und dem, was da noch so auf uns zukommt. Und passt auf Euch auf! #LOVEWINS 🙂

Quellen: