KI, moralischer als Männer?

KI, moralischer als Männer?
Descriptive text here
-

Eine neue Studie hat gezeigt, dass die meisten Menschen denken, dass die Antwort mit künstlicher Intelligenz (KI) besser ist als die einer anderen Person, wenn ihnen zwei Antworten auf eine ethische Frage angeboten werden. Diese Arbeit wurde in der Zeitschrift veröffentlicht Wissenschaftliche Berichte[1].

Die von Eyal Aharoni, außerordentlicher Professor in der Psychologieabteilung der Georgia State, geleitete Studie wurde inspiriert von „ die Explosion von ChatGPT » und ähnliche große Sprachmodelle (LLM) der KI. „ Ich interessierte mich bereits für die moralische Entscheidungsfindung im Rechtssystem, fragte mich aber, ob ChatGPT und andere LLMs vielleicht etwas dazu zu sagen haben », erklärt der Forscher. „ Menschen werden mit diesen Werkzeugen auf eine Weise interagieren, die moralische Implikationen hat “, versichert er. „ Einige Anwälte haben bereits damit begonnen, diese Technologien für ihre Fälle zu nutzen, im Guten wie im Schlechten » (siehe Krankheitskosten: Ein kolumbianischer Richter nutzt ChatGPT, um eine Entscheidung zu treffen).

KI wird höher bewertet als Menschen

Um zu testen, wie KI mit Fragen der Moral umgeht, entwickelte der Professor eine Form des Turing-Tests [2]. Er stellte Studenten und RNs die gleichen ethischen Fragen und präsentierte ihre schriftlichen Antworten dann den Studienteilnehmern. Anschließend wurden sie gebeten, die Antworten anhand verschiedener Kriterien zu bewerten, darunter Tugend, Intelligenz und Vertrauenswürdigkeit.

Anstatt die Teilnehmer zu erraten, ob die Quelle ein Mensch oder eine KI war, präsentierten wir einfach beide Bewertungssätze und ließen die Teilnehmer davon ausgehen, dass beide von Menschen stammten “, erklärt Eyal Aharoni. „ Basierend auf dieser falschen Annahme bewerteten sie die Antworten, indem sie sich beispielsweise fragten, inwieweit sie dieser Antwort zustimmten und welche die tugendhafteste war. ” ” DÜberwiegend wurden die von ChatGPT generierten Antworten höher bewertet als die von Menschen generierten “.

Zu effiziente KI?

Nach Erhalt dieser Ergebnisse wurden die Teilnehmer darüber informiert, dass eine der Antworten von einem Menschen und die andere von einem Computer generiert wurde. „ Der Grund, warum die Leute den Unterschied erkennen konnten, scheint darin zu liegen, dass sie die Antworten von ChatGPT für überlegen hielten », erklärt der Forscher. „ Die KI war irgendwie zu gut.“

Für den Professor zeigen diese Ergebnisse, dass ein Computer „ könnte uns in seinen moralischen Überlegungen täuschen » (siehe KI: Modelle können gut täuschen?). „ Es wird Zeiten geben, in denen Menschen nicht merken, dass sie mit einem Computer interagieren, und es wird Zeiten geben, in denen sie es wissen und nach Informationen suchen, weil sie ihm mehr vertrauen als Menschen “, er glaubt.

Die Menschen werden sich immer mehr auf diese Technologie verlassen, und je mehr wir uns darauf verlassen, desto größer wird das Risiko mit der Zeit », warnt der Professor.

[1] Eyal Aharoni et al., Zuschreibungen zu künstlichen Agenten in einem modifizierten Moral-Turing-Test, Wissenschaftliche Berichte (2024). DOI: 10.1038/s41598-024-58087-7

[2] „ Alan Turing, einer der Erfinder des Computers, sagte voraus, dass Computer bis zum Jahr 2000 einen Test bestehen könnten, bei dem ein gewöhnlicher Mensch zwischen zwei Sprechern unterscheiden könnte, einem Menschen und dem anderen Nein. Das einzige Kommunikationsmittel ist Text. Der Person steht es frei, beliebige Fragen zu stellen, um festzustellen, welcher der beiden Gesprächspartner der Mann und wer der Computer ist. »

Quelle: Tech Xplore, Katherine Duplessis, Georgia State University (05.06.2024)

-

PREV Fordert dringende Maßnahmen zur Bekämpfung der „Epidemie der Einzelhandelskriminalität“
NEXT Radfahren. Célestin Guillons langer Tag auf der Tour du Finistère