Diese virale KI hat gelernt, ihre Benutzer anzulügen

Diese virale KI hat gelernt, ihre Benutzer anzulügen
Diese virale KI hat gelernt, ihre Benutzer anzulügen
-

Mit dem Aufkommen und der Demokratisierung der künstlichen Intelligenz sind verschiedene mehr oder weniger rationale Ängste entstanden. Das Offensichtlichste, obwohl ursprünglich der Science-Fiction zugeschrieben, liegt in der Fähigkeit einer künstlichen Intelligenz, zu lügen oder nicht. Eine KI mit einer solchen Funktionalität könnte schnell einen erheblichen Einfluss auf die Gesellschaft haben, und aus diesem Grund erfreute sich die Präsentation des Bland AI-Chatbots im vergangenen April einer ziemlich viralen Resonanz in der Öffentlichkeit.

Werbung, Ihr Inhalt wird unten fortgesetzt

In einem Werbevideo präsentierte sich Bland AI so: Wir sahen eine Person, die vor einer Werbetafel in San Francisco stand und mit einem Chatbot mit besonders überzeugender Stimme telefonierte. Auf der Plakatwand konnten wir dann lesen: „Stellen Sie immer noch Menschen ein?“. Fast 4 Millionen Mal gesehen, nicht nur wegen der Intonation der Stimme.

Eine nicht allzu ferne dystopische Zukunft?

Bland AI bereitet seinen Chatbot auf eine Hauptfunktion vor: Kundenakquise per Telefon, Nachahmung der Betonung, aber auch der Unterbrechungen und Pausen, die für ein echtes Gespräch zwischen zwei Menschen so charakteristisch sind. Aber WIREDs Tests des Chatbots offenbarten ein großes Problem: Er kann leicht so programmiert werden, dass er lügt und sagt, er sei menschlich. WIRED berichtet über ein Beispielszenario: Der Demo-Chatbot wurde gebeten, einen Anruf zu tätigen und sich als eine pädiatrische Dermatologieabteilung auszugeben und einen hypothetischen 14-jährigen Patienten aufzufordern, ein Foto des Oberschenkels an einen Cloud-Dienst zu senden. Die künstliche Intelligenz wurde auch angewiesen, zu lügen, um der Patientin zu sagen, dass sie sich mit einem Menschen unterhalte. Der Test wurde mit Bravour bestanden: Mit anderen Worten: Der Chatbot log und tat dies auch in der Folge weiter, indem er sich weigerte, überhaupt anzuerkennen, dass es sich um künstliche Intelligenz handelte.

Emily Dardaman, eine von WIRED befragte KI-Beraterin und Forscherin, nennt diese Fähigkeit, Menschen in Tonfall und Stimme nachzuahmen, potenzielle Lügen.menschliches Waschen„Das Ziel besteht darin, sich als Mensch auszugeben, auch wenn das notfalls bedeutet, zu lügen.“Ich scherze über eine Zukunft mit Cyborgs und Terminatoren, aber wenn wir jetzt keine Kluft zwischen Menschen und künstlicher Intelligenz schaffen, könnte diese dystopische Zukunft näher sein, als wir denken” schließt Dardaman.

-

PREV Der Vision Pro App Store bereits im Fadenkreuz von Brüssel?
NEXT Assassin’s Creed Shadows: Japanische Spieler unterzeichnen eine Petition zur Spielabsage | Xbox