DayFR Deutsch

Die Sicherheitsmaßnahmen des umstrittenen Chatbots sind „ein Heftpflaster“

-

Die Chatbot-Plattform Character.ai überarbeitet ihre Funktionsweise für Teenager und verspricht, sie zu einem „sicheren“ Raum mit zusätzlichen Kontrollen für Eltern zu machen.

Die Website sieht sich in den USA mit zwei Klagen konfrontiert – eine wegen des Todes eines Teenagers – und wurde als „klare und gegenwärtige Gefahr„an junge Leute.

Es heißt, dass die Sicherheit nun bei allem, was es tut, durch neue Funktionen „erhöht“ wird, die Eltern darüber informieren, wie ihr Kind die Plattform nutzt – einschließlich der Zeit, die es mit Chatbots verbringt und mit denen es am häufigsten spricht.

Die Plattform – die es Benutzern ermöglicht, digitale Persönlichkeiten zu erstellen, mit denen sie interagieren können – wird bis Ende März 2025 ihre „erste Iteration“ der Kindersicherung erhalten.

Aber Andy Burrows, Leiter der Molly Rose Foundation, bezeichnete die Ankündigung als „eine verspätete, reaktive und völlig unbefriedigende Reaktion“, die seiner Meinung nach „wie eine Lösung ihrer grundlegenden Sicherheitsprobleme mit Pflaster wirkt“.

„Für Ofcom wird es eine frühe Bewährungsprobe sein, Plattformen wie Character.ai in den Griff zu bekommen und Maßnahmen gegen ihr anhaltendes Versäumnis zu ergreifen, völlig vermeidbare Schäden anzugehen“, sagte er.

Charakter.ai wurde im Oktober kritisiert als Chatbot-Versionen der Teenager Molly Russell und Brianna Ghey auf der Plattform gefunden wurden.

Und die neuen Sicherheitsfunktionen kommen zu einem Zeitpunkt, zu dem in den USA rechtliche Schritte gegen das Unternehmen eingeleitet werden, weil Bedenken hinsichtlich der bisherigen Handhabung der Kindersicherheit bestehen. mit einer Familie, die Anspruch darauf erhebt Ein Chatbot teilte einem 17-Jährigen mit, dass die Ermordung seiner Eltern eine „vernünftige Reaktion“ auf die Einschränkung seiner Bildschirmzeit sei.

Zu den neuen Funktionen gehören die Benachrichtigung von Benutzern, nachdem sie eine Stunde lang mit einem Chatbot gesprochen haben, sowie die Einführung neuer Haftungsausschlüsse.

Den Benutzern werden nun weitere Warnungen angezeigt, dass sie mit einem Chatbot und nicht mit einer echten Person sprechen – und dass das, was darin steht, als Fiktion behandelt wird.

Und sie fügt Chatbots, die sich als Psychologen oder Therapeuten ausgeben, zusätzliche Haftungsausschlüsse hinzu, um den Nutzern mitzuteilen, dass sie sich bei der professionellen Beratung nicht auf sie verlassen sollen.

Der Social-Media-Experte Matt Navarra sagte, er glaube, dass die Einführung neuer Sicherheitsfunktionen „ein wachsendes Bewusstsein für die Herausforderungen widerspiegelt, die sich aus der schnellen Integration von KI in unser tägliches Leben ergeben“.

„Diese Systeme liefern nicht nur Inhalte, sie simulieren Interaktionen und Beziehungen, die einzigartige Risiken schaffen können, insbesondere im Zusammenhang mit Vertrauen und Fehlinformationen“, sagte er.

„Ich denke, dass Character.ai eine wichtige Sicherheitslücke behebt, nämlich das Potenzial für Missbrauch oder für junge Benutzer, auf unangemessene Inhalte zu stoßen.

„Es ist ein kluger Schachzug, der den wachsenden Erwartungen an eine verantwortungsvolle KI-Entwicklung Rechnung trägt.“

Aber er sagte, obwohl die Änderungen ermutigend seien, sei er daran interessiert zu sehen, wie die Sicherheitsvorkehrungen Bestand hätten, wenn Character.ai immer größer werde.

Belgium

Related News :