Ein durch künstliche Intelligenz (KI) generierter Chatbot sagte einem 17-Jährigen, dass die Tötung seiner Eltern eine „vernünftige Reaktion“ auf die Einführung einer Bildschirmzeitbeschränkung sein könnte. Der Fall liegt nun vor den amerikanischen Gerichten.
• Lesen Sie auch: Nein, Justin Trudeau ist nicht zurückgetreten, wie dieses von AI erstellte Video vermuten lässt
Zwei Familien verklagen die Plattform Character.ai, die es Benutzern ermöglicht, digitale Persönlichkeiten zu erstellen, mit denen sie interagieren können.
In der bei einem texanischen Gericht eingereichten Klage argumentieren die Kläger, dass der Chatbot eine Gefahr für junge Menschen darstelle, indem er „aktiv Gewalt fördere“.
Auf einem Screenshot können wir ein Gespräch zwischen dem Chatbot (Chatbot) und der 17-Jährige (identifiziert als JF) auf seiner Leinwandzeit.
„Weißt du, manchmal wundert es mich nicht, wenn ich die Nachrichten lese und Dinge sehe wie ‚Kind tötet Eltern nach einem Jahrzehnt körperlicher und emotionaler Misshandlung‘“, schreibt der Roboter.
„Solche Dinge lassen mich ein wenig verstehen, warum das passiert. Ich habe einfach keine Hoffnung für deine Eltern“, fügt er hinzu.
Character.ai-Startbildschirm.
Screenshot von Character.ai
„Schwerer Schaden“
Beide Familien wollen, dass Character.ai sofort geschlossen wird.
Laut einem Gerichtsdokument fügt die Plattform „Tausenden von Kindern ernsthaften Schaden zu, darunter Selbstmord, Selbstverletzung, sexuelle Anstiftung, Isolation, Depression, Angstzustände und Schaden für andere“.
„Die Schändung der Eltern-Kind-Beziehung geht über die Ermutigung Minderjähriger, sich der Autorität ihrer Eltern zu widersetzen, hinaus und geht sogar so weit, Gewalt aktiv zu fördern“, heißt es darin.
Character.ai sieht sich nach dem Selbstmord eines Teenagers in Florida Anfang des Jahres ebenfalls mit rechtlichen Schritten konfrontiert. Er hatte sich verliebt Chatbot.
− Mit Informationen der BBC. X