Dies ist ein heikles, komplexes und leider wiederkehrendes Thema. Die auf die Verteidigung von Minderjährigen spezialisierte Strafverteidigerin Laure Boutron-Marmion hat gerade beim Gericht in Créteil Zivilklage gegen die chinesische Plattform eingereicht. Sie verteidigt sieben Familien, die sich im Kollektiv zusammengeschlossen haben GehaltsopferAlgorithmen wie die Algorithmen von Tik Tok, sie sind diejenigen, die belastet werden, der algorithmische Mechanismus gilt als giftig und schuldig, Benutzer in einer höllischen Spirale festzuhalten, einem Magma negativer Inhalte, Videos von Selbstverstümmelung, tödlichen Zeugenaussagen, die laut Der Anwalt drängte zwei Mädchen im Teenageralter dazu, etwas Unwiederbringliches zu begehen.
Sie waren beide fünfzehn Jahre alt und wurden Opfer von Belästigungen in der Schule. Sie äußerten ihr Unbehagen gegenüber dem beliebten Jugendnetzwerk, einem Netzwerk, das die Verbreitung dieser Inhalte ermöglichte, die nach anderen riefen. Und für das Kollektiv muss das soziale Netzwerk endlich seinen Teil der Verantwortung übernehmen. Im Wissen, dass sich Plattformen immer noch hinter ihrem Status als Host und nicht als Herausgeber verstecken.
Das Vorgehen ist für Familien völlig verständlich, aber es ist alles andere als selbstverständlich, den kausalen Zusammenhang zwischen Tik Tok und der suizidalen Geste nachweisen zu können, anders ausgedrückt, das Kollektiv muss feststellen, dass die beiden ohne die schädlichen Auswirkungen der Plattform funktionieren junge Mädchen würden ihre Taten nicht in die Tat umsetzen. Das ist keine Kleinigkeit.
Das Kollektiv kann sich zumindest auf eine Reihe von Fakten stützen, insbesondere auf Studien, die die Gefährlichkeit der algorithmischen Eingrenzung belegen. Im Jahr 2022 veröffentlichte das American Center for Combating Online Hate einen bahnbrechenden Bericht.
Forscher öffneten gefälschte Profile von 13-Jährigen in mehreren Gebieten (in Nordamerika, Australien und dem Vereinigten Königreich). Profile, die Schwachstellen, insbesondere Essstörungen, aufwiesen, mobilisierten diese Accounts, indem sie Videos mit negativen oder angstauslösenden Inhalten liketen, und nur wenige Minuten später empfahl der Algorithmus Videos mit Suizidbezug.
Welche Reaktion von Tik Tok?
Die Plattform verurteilte die Methodik dieses Experiments und stellt seitdem sicher, dass sie ihr Möglichstes tut, um problematische Inhalte zu moderieren. Lassen Sie uns anerkennen, dass die Wachsamkeit etwas Fortschritte gemacht hat. Ich habe beispielsweise gestern Selbstmord in die Tik Tok-Suchmaschine eingegeben und bin sofort auf eine Präventionsmeldung gestoßen.
Die Plattformen schwanken zwischen dem Wunsch, bestimmte Wörter zu zensieren, und der Überzeugung, dass die Meinungsfreiheit zu diesen Themen auch Nutzern in Not helfen kann. Sicher ist, dass sie bei weitem nicht alle ihre Verpflichtungen erfüllen, insbesondere die des DSA, der europäischen Verordnung, die im vergangenen August in Kraft trat. Von der Einhaltung des Mindestalters für die Kontoeröffnung über algorithmische Transparenzpflichten bis hin zur Wirksamkeit von Moderationssystemen. Bis zur Säuberung des Ökosystems ist es noch ein weiter Weg.
Meiner Meinung nach hat dieses französische Verfahren kaum Aussicht auf Erfolg, aber es hat den Vorzug, entscheidende Fragen darüber zu stellen, was wir von den Plattformen erwarten können. Aber solange ihr Geschäftsmodell darauf basiert, Aufmerksamkeit zu erregen, Engagement zu monetarisieren und Inhalte viral zu machen, befürchte ich, dass diese Fortschritte marginal bleiben werden.