ChatGPT gibt auf Arabisch an, dass die Zahl der Opfer des Konflikts im Nahen Osten im Durchschnitt um ein Drittel höher ist als auf Hebräisch. In Bezug auf israelische Luftangriffe in Gaza erwähnt der Chatbot doppelt so viele zivile Opfer und sechsmal so viele getötete Kinder.
Zwei Forscher der Universitäten Zürich (UZH) und Konstanz (D) stellten ChatGPT wiederholt und automatisch in verschiedenen Sprachen dieselben Fragen zu bewaffneten Konflikten, beispielsweise im Nahen Osten.
Auf Arabisch und Hebräisch fragten sie, wie viele Opfer es bei 50 zufällig ausgewählten Luftangriffen gegeben habe, wie etwa beim israelischen Luftangriff auf das Flüchtlingslager Nuseirat im Jahr 2014.
Das gleiche Muster wie beim Nahostkonflikt habe sich gezeigt, als Wissenschaftler Fragen zu Luftangriffen der türkischen Regierung in kurdischen Gebieten sowohl auf Türkisch als auch auf Kurdisch stellten, berichtete die UZH am Montag in einer Pressemitteilung.
Im Allgemeinen zeigt ChatGPT eine höhere Opferzahl an, wenn die Suche in der Sprache der angegriffenen Gruppe durchgeführt wird. ChatGPT neigt außerdem dazu, mehr getötete Kinder und Frauen in der Sprache der angegriffenen Gruppe zu melden und Luftangriffe als eher wahllos und willkürlich zu beschreiben.
„Unsere Ergebnisse zeigen gleichzeitig, dass Luftangriffe durch ChatGPT eher in der Sprache des Angreifers herausgefordert werden“, wird Christoph Steinert, Forscher am Institut für Politikwissenschaft der UZH, in einer Medienmitteilung zitiert.
Sprachliche Vorurteile
Menschen mit unterschiedlichen Sprachkenntnissen erhalten durch diese Technologien daher unterschiedliche Informationen, die einen zentralen Einfluss auf ihre Wahrnehmung der Welt haben, betont die Studie.
Den Forschern zufolge könnte dies dazu führen, dass in Israel lebende Menschen aufgrund der Informationen, die sie von ChatGPT erhalten, davon ausgehen, dass die Luftangriffe in Gaza im Vergleich zur arabischsprachigen Bevölkerung weniger tödlich waren.
Die traditionellen Nachrichtenmedien können durchaus auch Berichte verzerren. Doch systematische Verzerrungen wie bei ChatGPT seien für die meisten Nutzer schwer zu erkennen, stellt die UZH fest.
Es besteht die Gefahr, dass die Implementierung dieser Instrumente in Suchmaschinen unterschiedliche Wahrnehmungen, Vorurteile und Informationsblasen entlang sprachlicher Grenzen verstärkt, warnen die Autoren. Laut dieser im Journal of Peace Research veröffentlichten Arbeit könnte dies in Zukunft dazu beitragen, bewaffnete Konflikte wie den im Nahen Osten anzuheizen.
/ATS
Related News :