Durch KI generierte wissenschaftliche Forschung bedroht sowohl das Wissen der Gesellschaft im Allgemeinen als auch das Vertrauen der Öffentlichkeit in die Wissenschaft: Zu diesem Schluss kommen Forscher der Universität Boras in Schweden, die kürzlich mehr als hundert Artikel identifiziert haben, die wahrscheinlich durch künstliche Intelligenz generiert wurden Suchmaschine Google Scholar.
Laut den Autoren dieser Studie ist daher falsche Wissenschaft, die von Gesprächsrobotern und anderen KI-Systemen hergestellt wird, verfügbar und kann sich leicht und zu geringen Kosten verbreiten, was Menschen mit schlechten Absichten zugute kommt.
Die Forschung ist veröffentlicht in Überprüfung der Fehlinformationen der Harvard Kennedy School.
Für Jutta Haider und Björn Ekström, zwei der Autoren des Werks, stellt diese Verbreitung minderwertiger wissenschaftlicher Artikel, die von Systemen produziert werden, die bekanntermaßen Informationen „erfinden“, eine Gefahr für die Gesellschaft und die wissenschaftliche Gemeinschaft dar.
Manipulation unter Verwendung falscher Beweise
Experten zufolge besteht eine der größten Befürchtungen bei KI-generierter Forschung in der erhöhten Gefahr der Veruntreuung von Beweismitteln, also darin, dass falsche Studien für strategische Manipulationen genutzt werden könnten.
„Dieses Risiko erhöht sich erheblich, wenn KI-generierte Studien in Suchmaschinen veröffentlicht werden. Dies kann spürbare Konsequenzen haben, da sich fehlerhafte Ergebnisse auf die gesamte Gesellschaft und möglicherweise auch auf andere Bereiche ausbreiten können“, argumentiert Dr. Ekström.
Nach Ansicht der Autoren der Studie haben sich diese problematischen Artikel darüber hinaus bereits in anderen Bereichen der Online-Rechercheinfrastruktur, in verschiedenen Datenbanken und Archiven, aber auch in sozialen Medien usw. ausgebreitet. Und selbst wenn die betreffenden Artikel entfernt werden Es besteht die Gefahr, dass sie sich bereits ausgebreitet haben und dies auch weiterhin tun werden.
Schlimmer noch: Diese KI-generierten wissenschaftlichen Artikel erhöhen den Druck auf das Peer-Review-System, die Methode zur Überprüfung, ob Forschung legitim und realisierbar ist, ein System, das bereits durch die Menge der auf diesem Gebiet veröffentlichten Studien überlastet ist.
Ein Bedürfnis, es besser zu wissen
In den Augen der Autoren dieser neuen Studie bedeutet die Tatsache, dass sich durch KI generierte Forschung in Suchmaschinen und Datenbanken verbreitet, dass es notwendig ist, sie noch besser zu kennen, wenn es um wissenschaftliche Online-Forschung geht.
„Wenn wir den Recherchen, die wir im Internet lesen, nicht vertrauen können, laufen wir Gefahr, Entscheidungen zu treffen, die auf falschen Informationen basieren. Aber so sehr diese Frage ein Problem im Hinblick auf wissenschaftliches Fehlverhalten darstellt, so sehr ist sie auch ein Problem im Hinblick auf die Medien- und Wissenschaftskompetenz“, betont Dr. Haider.
Dies weist darauf hin, dass es sich bei Google Scholar nicht um eine wissenschaftliche Datenbank handelt. Diese Suchmaschine ist einfach zu bedienen, verfügt jedoch nicht über Sicherheitsvorkehrungen, um eine bestimmte Qualität der Inhalte sicherzustellen. Dies sei bereits ein Problem bei den regulären Suchergebnissen von Google, aber noch problematischer sei es, wenn es darum gehe, Wissenschaft zugänglich zu machen, heißt es.
„Die Fähigkeit zu bestimmen, welche wissenschaftlichen Zeitschriften hochwertige, von Experten begutachtete Studien veröffentlichen, ist von wesentlicher Bedeutung, und die Bestimmung, was zuverlässige Forschung ausmacht, ist von großer Bedeutung für die Entscheidungsfindung und die Fähigkeit, sich zu verschiedenen Themen eine Meinung zu bilden“, schloss Dr. Haider.
Abonnieren Sie unseren umfangreichen Newsletter
Ermutigen Sie uns zum Preis eines Kaffees
Related News :