Deepfakes: viele Risiken und einige Chancen

Deepfakes: viele Risiken und einige Chancen
Deepfakes: viele Risiken und einige Chancen
-

Hyperfaking, Desinformation, Manipulation. Daran denken wir oft, wenn wir über Deepfake sprechen, diese Technik zur Synthese multimedialer Daten auf Basis von KI. „Heutzutage ist die Erstellung von Deepfakes relativ einfach. Damals brauchte man wirklich sehr technisches Wissen, in der IT, in der KI… Heute spreche ich von „Deepfake as a Service“, weil man auf einer Plattform ein Konto erstellen, seine Kreditkarte eingeben und das war’s. denkt Loris Bergeron, leitender Software-Ingenieur bei der Banque de Luxembourg. Dies ist eine Entwicklung, die von allen Fachleuten beobachtet wird: die Demokratisierung dieser Technik mit immer mehr dedizierten Online-Plattformen. Aber Loris Bergeron weist auf eine andere Entwicklung hin, die den möglichen Missbrauch dieser immer fortschrittlicheren Takelage-Technik zeigt.

„Wir sehen zum Beispiel immer mehr Deepfakes in Scams, also Internetbetrügereien, und immer mehr Fälle von elektronischer Belästigung mit diesen Deepfakes.“ Im Grunde hatten wir wirklich öffentliche Deepfake-Kampagnen, die in sozialen Netzwerken gepostet wurden. Aber wir sehen immer mehr Einschüchterungskampagnen, bei denen Deepfakes direkt gegen Menschen gerichtet sind“, stellt er fest.

Deepfakes werden häufig zum Zweck der Desinformation und politischen Manipulation, beispielsweise bei Wahlen und Wahlkampagnen, oder zur Generierung von Propagandareden eingesetzt und werden heute dazu verwendet, kompromittierende Videos von Menschen zu verbreiten, die zwar falsch sind, aber ihrem Ruf schaden. Sie können auch ein Werkzeug zur Erpressung, aber auch zum Finanzbetrug oder Identitätsdiebstahl sein. Nehmen Sie zum Beispiel ein Deepfake-Audio, das die Stimme des CEO eines Unternehmens imitieren könnte, um Mitarbeitern oder Geschäftspartnern betrügerische Finanzanweisungen zu erteilen. Missbräuche, die sich gleichzeitig mit der Technologie weiterentwickeln und daher wahrscheinlich immer zahlreicher werden.

Gelegenheiten…

Aber auch in der Berufswelt können diese Fake-Videos eingesetzt werden, die davon profitieren können. Als Teilnehmer des Panels erinnerte auch der CEO von Ella Media, Michael Keusgen, daran, dass die Deepfake-Technik Chancen bieten könnte. Ihr Unternehmen, Ella Media, entwickelt Konversationsagenten und KI-Lösungen „mit menschlicher Note“. Avatare, die so zu Repräsentanten einer Marke werden, per Chat, per Sprache oder per Video. Seine „Persona“ genannte Architektur ermöglicht eine umfassende Individualisierung bis ins Detail.

(Von links nach rechts) Der IT-Leiter von CFL, Maxime Dehaut, moderierte ein Panel, an dem die Forscherin Djamila Aouada, der IT-Ingenieur der Banque de Luxembourg Loris Bergeron, der CEO von Ella Media Michael Keusgen sowie der Berater der Europäischen Kommission Juha Heikkilä teilnahmen. (Foto: Maëlle Hamma/Maison Moderne)

Auch die Leiterin des Bereichs Computer Vision, Imaging and Machine Intelligence (CVI2) der SnT-Forschungsgruppe, Djamila Aouada, sieht eine vielversprechende Seite, sofern der Einsatz gut durchdacht ist, und eine hervorragende Quelle der Kreativität. „Zum Beispiel können wir Synthesia nennen, das von Forschern entwickelt wurde und es ermöglicht, Avatare zu erstellen. Dabei handelt es sich zwar um Fälschungen, aber das Tool kann genutzt werden, um die Erstellung sämtlicher Inhalte zu vermeiden und effizienter zu arbeiten. Es ist eine Quelle von Aufwand und Geldeinsparungen. Dabei handelt es sich um Tools, die zunehmend von YouTubern genutzt werden, die so Videos produzieren können, ohne sich um alle technischen Aspekte wie Helligkeit, Dreharbeiten, verwendete Sprache usw. kümmern zu müssen.“

Laut Loris Bergeron könnte die Technik in geringerem Umfang auch in Unternehmen übernommen werden. „Stellen wir uns vor, wir nehmen ein Unternehmen, das Videos für seine internationalen Kunden erstellt. Die Person, die die Präsentation halten wird, wird sie beispielsweise in ihrer Muttersprache halten – stellen Sie sich Französisch, Englisch oder was auch immer vor. Mit einem Deepfake können wir dasselbe Interview vervielfachen, indem wir die Stimme der Person in einer anderen Sprache synthetisieren, die Umgebung ändern oder Ähnliches. Das sind also positive Auswirkungen. Wir können wirklich viel näher am Kunden sein, indem wir zum Beispiel die Sprache ändern, mit der wir mit ihnen interagieren“, sagt er.

Die Herausforderung: wissen, wie man erkennt

Es bleibt jedoch eine große Herausforderung: zu wissen, wie man sie erkennt. Was in vielen Fällen jeder kann. Laut Djamila Aouada müssen wir zunächst nach den Fehlern gefälschter Multimedia-Inhalte suchen, die meist in Form eines Videos vorliegen. „Die Synchronisierung kann zu einem Zeitpunkt T zu Fehlern im räumlichen Aspekt führen. Wir können sie beispielsweise an den Konturen des Gesichts auf der Ebene seiner Abgrenzung beobachten. Oftmals kommt es auch zu zeitlichen Störungen oder zu einer Diskrepanz zwischen Lippen und Stimme. Aber diejenigen, die Deepfakes erstellen, spielen manchmal mit der Auflösung der Daten und verpixeln sie, damit diese Fehler weniger auffallen. Je hochwertiger ein Deepfake ist, desto schwieriger ist es natürlich, diese Mängel zu erkennen“, erklärt Djamila Aouada, die zwischen „cheapfakes“, diesen Deepfakes von schlechter Qualität, und „hochwertigen Deepfakes“, die oft auf berühmte Persönlichkeiten abzielen, unterscheidet. „Das entwickelt sich sehr schnell und es wird für uns als Nutzer immer schwieriger, sie zu erkennen.“

Das SnT führt daher Forschungsarbeiten durch und entwickelt verschiedene Kategorien von Algorithmen, um diese Hyperfakes zu erkennen. „Wir verfolgen einen allgemeinen Ansatz, der die Grundlage unserer Forschung bildet, mit Algorithmen, die unabhängig von den Arten von Deepfakes sind.“ Im Grunde trainieren die Uni-Forscher die Maschine mit echten Bildern, damit sie falsche Bilder besser erkennen kann.

Damit Erkennungstools letztendlich demokratisiert werden können, „müssen wir das Ökosystem dafür haben und jeder muss das Spiel mitmachen, damit sie in großem Maßstab entwickelt werden.“ Aber es ist tatsächlich viel komplexer, als nur ein Werkzeug zu haben. Wir müssen auch Elemente der Online-Reputation und der Authentifizierung von Menschen im Internet berücksichtigen“, betont Djamila Aouada.

Über den technischen Aspekt hinaus rät Loris Bergeron dazu, „einen kritischen und menschlichen Geist zu bewahren und stets die Richtigkeit der Informationen zu überprüfen.“ Nehmen Sie ein Video, das Sie in einem TikTok-Feed oder was auch immer gesehen haben, nicht für bare Münze. Das Problem bei möglichen Erkennungstools besteht darin, dass sich die Erstellung von Deepfakes so schnell entwickelt, dass diese Tools nicht das gleiche Entwicklungstempo verfolgen. Das sehen wir bereits bei der generativen KI, beispielsweise bei ZeroGPT, das es ermöglicht zu erkennen, ob ein Text von ChatGPT generiert wurde oder nicht. „Wir sehen, dass die Ergebnisse nicht sehr gut sind, weil sich ChatGPT viel schneller weiterentwickelt als das Erkennungstool“, betont er. Gegen die Auswüchse von Deepfakes hatte die Europäische Kommission, vertreten in diesem Gremium durch Juha Heikkilä, die Plattformen aufgefordert, für ihre Art und Weise, mit Deepfakes umzugehen, Rechenschaft abzulegen.

-

PREV Krise im Roten Meer: Nador West Med, eine Lösung für die Überlastung des westlichen Mittelmeers
NEXT Der Untertagegüterverkehr befindet sich in einer tiefen Krise