Ein Experiment und eine aktuelle Veröffentlichung von Apollo Research haben gerade noch mehr Verwirrung über diese Themen gestiftet. Forscher führten Experimente mit den neuesten Versionen der KIs der großen Spieler durch. Zunächst wurde ein weit gefasstes Ziel vorgegeben. Und dann wurden später Anweisungen gegeben, die KI vom ursprünglichen Programm abzulenken. Trotz dieser Anordnungen konzentrierten sich die KIs weiterhin auf die Wahrung des Hauptziels und demonstrierten zu diesem Zweck eine ganze Reihe von Strategien.
Diese Strategien könnten bis zur Verstellung und Lüge gehen. Und in einem Fall, als die KI von einer Abschaltung bedroht war, ging sie sogar so weit, das, was sie für ihre Parameter hielt, auf einen anderen Server zu exportieren, um ihr „Überleben“ und die Verfolgung ihres Hauptziels sicherzustellen.
Das bringt Wasser auf die Mühlen derer, die vor den Gefahren einer KI warnen, die Befehle allzu blind befolgt, ohne den nötigen moralischen Sinn oder die nötige Perspektive zu haben, um Dinge zu hinterfragen. Wenn wir an die Umstände in der Geschichte denken, unter denen blinder Gehorsam zu Katastrophen geführt hat, wünschen wir uns zumindest, dass diese Art von Forschung tiefer in die Materie eintauchen würde.
Künstliche Intelligenz und digitale Transformation von Unternehmen: Belgien geht es gut
Was den Titel betrifft, so lautet der in den englischen Artikeln verwendete Begriff „scheming“, was sich am besten mit „Scheme“ oder sogar „Plot“ übersetzen lässt.
Related News :