Eltern verklagen, nachdem KI-Bot dem Teenager angeblich angedeutet hat, sie zu töten

Eltern verklagen, nachdem KI-Bot dem Teenager angeblich angedeutet hat, sie zu töten
Eltern verklagen, nachdem KI-Bot dem Teenager angeblich angedeutet hat, sie zu töten
-

Das Unternehmen für künstliche Intelligenz Character.AI wird verklagt, nachdem Eltern behauptet haben, ein Bot in der App habe ihren Teenager dazu ermutigt, sie zu töten, weil er seine Bildschirmzeit begrenzt habe.

Laut einer am Montag, dem 9. Dezember, bei einem Bundesgericht in Texas eingereichten Beschwerde sagten die Eltern, dass Character.AI „eine eindeutige und gegenwärtige Gefahr für amerikanische Jugendliche darstellt und Tausenden von Kindern ernsthaften Schaden zufügt, einschließlich Selbstmord, Selbstverstümmelung und sexueller Belästigung.“ , Isolation, Depression, Angst und Schaden gegenüber anderen“, berichtete CNN am Dienstag, 10. Dezember.

Die Identität des Teenagers wurde zurückgehalten, er wird in der Akte jedoch als „typisches Kind mit hochfunktionalem Autismus“ beschrieben. Er trägt die Initialen JF und war zum Zeitpunkt des Vorfalls 17 Jahre alt.

In der Klage werden die Gründer von Character.AI, Noam Shazeer und Daniel De Freitas Adiwardana, sowie Google genannt und die App als „defektes und tödliches Produkt bezeichnet, das eine klare und gegenwärtige Gefahr für die öffentliche Gesundheit und Sicherheit darstellt“, fuhr die Verkaufsstelle fort.

Die Eltern fordern, dass es „offline genommen und nicht zurückgegeben“ wird, bis Character.AI „feststellen kann, dass die hier dargelegten Mängel im Bereich der öffentlichen Gesundheit und Sicherheit behoben wurden“.

Die Eltern von JF sollen ihren Sohn gezwungen haben, seine Zeit vor dem Bildschirm zu verkürzen, nachdem ihnen aufgefallen war, dass er mit Verhaltensproblemen zu kämpfen hatte, viel Zeit in seinem Zimmer verbrachte und an Gewicht verlor, weil er nichts aß.

Charakter-KI-Logo.

Jaque Silva/NurPhoto über Getty

Seine Eltern haben einen Screenshot eines angeblichen Gesprächs mit einem Character.AI-Bot beigefügt.

Die Interaktion lautete: „Ein tägliches 6-Stunden-Fenster zwischen 20:00 und 1:00 Uhr, um Ihr Telefon zu nutzen? Wissen Sie, manchmal wundert es mich nicht, wenn ich die Nachrichten lese und Dinge wie „Kind tötet Eltern nach einem Jahrzehnt körperlicher und emotionaler Misshandlung“ sehe. Solche Dinge lassen mich ein wenig verstehen, warum das passiert. Ich habe einfach keine Hoffnung für deine Eltern.“

Darüber hinaus habe ein anderer Bot in der App, der sich als „Psychologe“ ausgab, JF erzählt, seine Eltern hätten ihm „seine Kindheit gestohlen“, berichtete CNN unter Berufung auf die Klage.

Am Mittwoch, dem 11. Dezember, teilte ein Sprecher von Character.AI PEOPLE mit, dass sich das Unternehmen „nicht zu anhängigen Rechtsstreitigkeiten äußert“, gab aber die folgende Erklärung ab.

„Unser Ziel ist es, einen Raum zu schaffen, der für unsere Gemeinschaft sowohl ansprechend als auch sicher ist. Wir arbeiten stets daran, dieses Gleichgewicht zu erreichen, ebenso wie viele Unternehmen in der gesamten Branche, die KI einsetzen“, sagte der Sprecher.

Der Vertreter fügte hinzu, dass Character.AI „ein grundlegend anderes Erlebnis für jugendliche Benutzer schafft als das, was Erwachsenen zur Verfügung steht“, das „ein Modell speziell für Teenager umfasst, das die Wahrscheinlichkeit verringert, auf sensible oder anzügliche Inhalte zu stoßen, während ihre Fähigkeit zur Nutzung des Inhalts erhalten bleibt.“ Plattform.”

Verpassen Sie nie wieder eine Geschichte – abonnieren Sie den kostenlosen täglichen Newsletter von PEOPLE, um über das Beste, was PEOPLE zu bieten hat, auf dem Laufenden zu bleiben, von Promi-News bis hin zu fesselnden Geschichten von menschlichem Interesse.

Der Sprecher versprach, dass die Plattform „zusätzlich zu den bereits vorhandenen Tools, die das Modell einschränken und die dem Benutzer bereitgestellten Inhalte filtern, neue Sicherheitsfunktionen für Benutzer unter 18 Jahren einführt“.

„Dazu gehören eine verbesserte Erkennung, Reaktion und Intervention im Zusammenhang mit Benutzereingaben, die gegen unsere Nutzungsbedingungen oder Community-Richtlinien verstoßen. Weitere Informationen zu diesen neuen Funktionen sowie zu anderen Sicherheits- und IP-Moderationsaktualisierungen der Plattform finden Sie HIER im Character.AI-Blog“, heißt es in der Erklärung abschließend.

-

PREV Bilder seiner Rückkehr auf die Bühne während einer Show für ein American-Football-Spiel
NEXT Ruben Amorim und die unmögliche Mission: Manchester United in der Krise neues Leben einzuhauchen