Bern geht gegen Apps vor, um „den Nachbarn nackt zu sehen“

-

Mit solchen Anwendungen können Sie mit einem einzigen Klick Nacktfotos erstellen.Bild: Dr

Viele junge Schweizer werden Opfer von Erpressungen mit gefälschten Nacktfotos. Die Täter sind in Banden organisiert und suchen sich gezielt ihre Opfer aus.

Michael Graber / ch media

Es ist wie ein Szenario direkt aus einem anrüchigen 80er-Jahre-Erotikfilm: Ein Knopfdruck genügt und alle Klamotten verschwinden. Und doch ist es längst Realität. Anwendungen und Websites wie Nudify ermöglichen es dank künstlicher Intelligenz (KI), jedes harmlose Porträt in Nacktfotos umzuwandeln. Und die Ergebnisse sind erschreckend realistisch.

„Endlich deinen Nachbarn nackt sehen“

Mit solchen Slogans haben sich mehrere Anbieter in den sozialen Netzwerken auf sehr grobe Weise bekannt gemacht. Obwohl ein gewisses Maß an Selbstregulierung die Wirkung dieser Werbung verringert hat, ist das Problem noch nicht gelöst. ICHl Es gibt immer noch Dutzende Websites und Anwendungen, die die Möglichkeit bieten, Fotos dieser Art mit einem Klick zu erstellen.

Eine breite Allianz im Parlament versucht nun, sich zusammenzuschließen und diesen KI-generierten Inhalten ein Ende zu setzen. Raphaël Mahaim (Grüne/VD) und Nina Fehr Düsel (UDC/ZH) reichten identische Interventionen ein, die darauf abzielten, die Verbreitung entwürdigender Anwendungen wie Nudify einzuschränken. Sie fanden parteiübergreifend Unterstützung.

Raphaël Mahaim hat das Experiment an sich selbst durchgeführt.

Ende September erklärte der Waadtländer Raphaël Mahaim 24 Stunden Seine Bedenken hinsichtlich tiefer Aktdarstellungen:

„Wir sehen immer mehr davon im Umlauf, insbesondere auf Schulhöfen. Es ist unglaublich einfach, sie zu erstellen! Grundsätzlich fotografiert man eine bekleidete Person, ohne dass diese vollständig zu sehen ist. Sie stecken es in eine der vielen „Nudifiers“- oder „Undress-Apps“-Anwendungen, die es im Web gibt, und es rekonstruiert in wenigen Sekunden den gesamten Körper der Person, ohne das kleinste Kleidungsstück. Vor allem Jungen nutzen sie häufig.“

Machen Sie den Zugang technisch unmöglich

Konkret geht es um den Wunsch des französischsprachigen gewählten Beamten und seines UDC-Kumpels verbieten oder technisch unmöglich machen „die Förderung, der Verkauf oder die Bereitstellung digitaler Anwendungen und Dienste“, die mithilfe von KI Nacktfotos erstellen. Die Macher greifen somit direkt die Ersteller solcher Inhalte an. Ziel sei es, möglichen Missbrauch zu verhindern, erklärt Nina Fehr Düsel.

Es gibt bereits ein Gesetz. Tatsächlich macht sich heute jeder strafbar, der ein Nacktfoto einer anderen Person erstellt und dieses teilt. Die Verbreitung solcher Fotos sei für die Opfer „äußerst schmerzhaft“. Sobald ein Foto im Umlauf ist – ob authentisch oder nicht – ist die Situation kaum noch kontrollierbar, und die Verurteilung des Täters hilft nicht viel.

Pour l’UDC Nina Fehr Düsel, Es geht darum, „ein Zeichen“ gegen die gefährlicheren Aspekte der künstlichen Intelligenz zu setzen. Trotz „vieler Vorteile und nützlicher Anwendungen“ birgt seine Verwendung viele Möglichkeiten für Missbrauch. Der Zürcher Landesrat ist realistisch und weiß, dass die Technologie rasant voranschreitet und die rechtlichen Rahmenbedingungen noch etwas hinterherhinken. Allerdings hofft sie, hier eine Grundlage zu finden, um künftige Missbräuche mit anderen technischen Mitteln zu verhindern oder zumindest einzuschränken.

Sogar Kinder erhalten Werbung

Sie selbst bemerkte auf dem Konto ihrer Kinder Werbung für Apps wie Nudify. „Das ist inakzeptabel“, beklagt der Anwalt. Glücklicherweise gibt es mittlerweile Möglichkeiten, diese Art von Werbung gezielt zu verbieten und dafür zu sorgen, dass Seiten, die solche Inhalte anbieten, schnell aus dem Verkehr gezogen werden.

Besonders Kinder und Jugendliche seien von Missbrauch durch solche Anwendungen betroffen, erklärt Regula Bernhard Hug, Leiterin des Schweizerischen Kinderschutzvereins. Die Organisation betreibt zudem den Online-Alarmdienst clickandstop.ch, bei dem Sie Kindesmissbrauchsmaterial melden und Informationen und Beratung einholen können. Auch hier werden die Verantwortlichen zunehmend mit künstlich erzeugtem Material konfrontiert.

Regula Bernhard Hug sind zahlreiche Fälle in der Schweiz bekannt, in denen Jugendliche mit solchen KI-erstellten Fotos erpresst wurden. Täter besorgen sich über soziale Medien Fotos von Opfern, erstellen gefälschte Aktfotos und versuchen damit, Geld zu erpressen. Oder sie versuchen, aus gefälschtem Material echtes Material zu erpressen.

In beiden Fällen sind junge Menschen häufig in einer fragilen Phase, mitten in der Pubertät, betroffen.

„Eine solche Erpressungssituation kann zu großen Krisen führen“

Bernhard Hug

Betroffen sind junge Menschen beiderlei Geschlechts. Dem Experten sind auch Fälle bekannt, in denen mithilfe von KI künstliche Nacktfotos oder sogar Kindesmissbrauchsvideos von Kleinkindern erstellt wurden.

Stellen Sie keine vollgesichtigen Fotos ins Internet

Regula Bernhard Hug begrüsst das Handeln der Politik. Sie empfiehlt jedoch, möglichst wenige erkennbare Bilder von Kindern und Jugendlichen in den sozialen Netzwerken zu hinterlassen. Ganz frontale Fotos seien besonders problematisch, sagt sie, da sich solche Bilder am besten für die Bearbeitung mit Apps wie Nudify oder anderen Tools eigneten. Sie fordert daher die Eltern auf, sorgfältig auszuwählen, was sie teilen.

Manchmal geraten sie auch in die Falle. Kürzlich wurde beispielsweise ein Vater mithilfe eines gefälschten Profils und KI-generierter Nacktfotos dazu verleitet, zu glauben, seine Tochter arbeite als Prostituierte. Die Täter forderten Geld und drohten mit der Veröffentlichung der Fotos wenn er die Zahlung verweigerte. Ganze Banden sind auf diese Art der Erpressung spezialisiert. Regula Bernhard Hug geht davon aus, dass es eine große Dunkelziffer gibt:

„Viele Opfer schämen sich und wenden sich nicht an die Polizei oder eine Einrichtung wie unsere“

Aus dem Deutschen übersetzt und adaptiert von Léa Krejci

Weitere Artikel zum Thema Künstliche Intelligenz:

Das könnte Sie auch interessieren:

-

PREV Flight Simulator 2024 – Steigen Sie wie in GTA aus dem Flugzeug, auch in Sion
NEXT Ungewöhnlich: Auf Google Earth ist es jetzt möglich, in die Vergangenheit zu blicken