Joe Biden, der den Wählern eine Stimme lässt, um sie zu ermutigen, nicht zu wählen, Kamala Harris, die ihn in einem Video als „senil“ bezeichnet, erscheint dann in der Uniform eines kommunistischen Diktators auf einem vom Geschäftsmann Elon Musk veröffentlichten Foto … Nun, natürlich nichts davon Das ist wahr. Doch mit dem Aufkommen der künstlichen Intelligenz (KI) war es nie einfacher, Deepfakes – diese digitalen Fälschungen von Stimmen oder Gesichtern – zu erstellen, was die Befürchtung schürte, dass sie die öffentliche Debatte verunreinigen könnten. Allerdings ist ihr Einfluss auf die Wahlergebnisse für Wissenschaftler nur sehr schwer zu quantifizieren. Sollten wir uns also Sorgen machen? Zwei Experten antworten uns.
Wissenschaft & Leben: Was sind Deepfakes?
Jean-Gabriel Ganascia: Der Name Deepfake ist entstanden aus tiefes Lernen „Deep Learning“ auf Englisch – ein Teilgebiet der KI, das unter anderem die Erstellung ultrarealistischer Inhalte ermöglicht – und gefälscht „falsch“ auf Englisch. Diese Techniken können zur Karikatur eingesetzt werden, beispielsweise durch das Foto von Kamala Harris als Diktatorin; andere, wie etwa Bidens falsche Aufforderung, nicht an den amerikanischen Vorwahlen teilzunehmen, sind reine Manipulationsoperationen.
Nadia Guerouaou: Bei einer Abstimmung zielen diese Manipulationen darauf ab, die Wähler zu täuschen. Sie umgehen unsere kritischen Filter, indem sie unsere kognitiven Schwachstellen ausnutzen, wie z. B. Bestätigungsverzerrungen, was bedeutet, dass wir Informationen, die mit unseren Überzeugungen übereinstimmen, natürlich mehr Glaubwürdigkeit verleihen. Sie ebnen den Weg für eine heimtückische Manipulation der öffentlichen Meinung, indem sie den Bekanntheitsgrad bestimmter Reden und Kandidaten steigern oder im Gegenteil das gegnerische Lager verunglimpfen.
„Indem Deepfakes die Grenzen zwischen Echt und Fälschung verwischen, untergraben sie das Vertrauen der Öffentlichkeit in politische Informationen.“ NADIA GUEROUAOU
S&V: Stellen sie eine neue Bedrohung für Demokratien dar?
J. -GG: Desinformation hat es schon immer gegeben, insbesondere bei Wahlen. Was sich bei Deep Fakes ändert, ist ihr verblüffender Realismus, der ihre Wirksamkeit erhöht. Darüber hinaus werden sie oft massenhaft in sozialen Netzwerken verbreitet und die Wiederherstellung der Wahrheit erreicht nicht immer die Opfer.
NG: Eine besorgniserregende Konsequenz im Wahlprozess liegt meiner Meinung nach in dem, was wir als „Erzeugung von Unsicherheit“ bezeichnen: Durch die Verwischung der Grenzen zwischen dem, was als wahr und falsch angesehen werden kann, untergraben Deepfakes langfristig das Vertrauen der Öffentlichkeit in politische Informationen im Allgemeinen. Dies schwächt die Grundlagen unserer demokratischen Gesellschaften.
S&V: Wird die Gefahr nicht etwas überschätzt?
Lassen sich ihre konkreten Auswirkungen auf die Wahlen quantifizieren?
J. -GG: Es ist äußerst kompliziert festzustellen, dass diese oder jene Manipulationen, die vor einer Wahl kursierten, einen entscheidenden Einfluss auf deren Ergebnisse hatten. Die Schwierigkeit ist methodischer Natur: Wir können kein reproduzierbares Experiment mit einer Testpopulation durchführen.
NG: Es gab in den letzten Jahren trotzdem einige Versuche. Im Jahr 2023 kam eine in elf Ländern – darunter Frankreich – durchgeführte Studie auf der Grundlage lokaler Medienberichte und Google-Suchanfragen zu dem Schluss, dass Deepfakes zur Verschlechterung des Informationsumfelds beigetragen und die Wahrnehmung der Wähler auf subtile, aber erhebliche Weise beeinflusst haben.
Diese Art von Studie misst jedoch nicht ihren genauen Einfluss auf die Wahl.
„Am effektivsten wäre es, Maßnahmen einzuführen, die soziale Netzwerke dazu zwingen würden, ihr Wirtschaftsmodell zu ändern.“ JEAN-GABRIEL KIEFER
S&V: Gibt es eine Möglichkeit, sich davor zu schützen?
NG: Wir haben mehrere Möglichkeiten, aber ihre Wirksamkeit muss noch bewiesen werden.
Der Entwurf einer europäischen KI-Verordnung (KI-Gesetz) sieht vor, dass Tools, die Deepfakes erzeugen, durch Kennzeichnung eindeutig darauf hinweisen müssen, dass ihr Inhalt künstlich erstellt oder verändert wurde.
Aber wird sich das positiv auf kognitive Prozesse auswirken? Um dies herauszufinden, müssten experimentelle Studien durchgeführt werden, in denen insbesondere die Auswirkungen dieser Fälschungen auf das Vertrauen oder die Unsicherheit verglichen werden, die sie in Bezug auf politische Informationen hervorrufen – unabhängig davon, ob sie als „Deepfake“ oder als „Nein“ gekennzeichnet sind.
J. -GG: Darüber hinaus würde ein solches Kennzeichnungsverfahren nur für Hersteller in Ländern gelten, die die europäische Gesetzgebung respektieren. Daher könnte es zu massiven Angriffen verfeindeter Staaten kommen, die darauf abzielen, andere Länder zu destabilisieren, ohne dass die Gesetzgebung dagegen etwas unternehmen kann. Am effektivsten wäre die Einführung von Maßnahmen, die soziale Netzwerke dazu zwingen würden, ihr Wirtschaftsmodell zu ändern.
Derzeit verdienen sie Geld mit Werbung: Je mehr eine Veröffentlichung eine Reaktion hervorruft – und das gilt für diejenigen, die Deepfakes enthalten –, desto mehr Geld verdient die damit ausgestrahlte Werbung und desto mehr fördern die Netzwerke sie … Würde man dieses Modell modifizieren, hätten Unternehmen kein Interesse mehr daran, Fälschungen zu fördern. Aber ohne einen sehr starken politischen Willen kann man nichts dagegen tun.