DayFR Deutsch

Roboterkriegsführung: Welches Gehirn soll den Einsatz von Gewalt kontrollieren? Menschlich oder künstlich?

-

Schwindlig ! Sobald wir an künstliche Intelligenz denken, die auf Krieg, Drohnen, Raketen, Analyse- und Entscheidungssysteme angewendet wird, ist sie unsere gesamte Vorstellung von der Welt, vom Recht, von der sozialen Organisation, vom Staat, von der Staatsbürgerschaft, von der Stellung des Menschen darin General, der zur Hölle fährt. Im Zentrum der Überlegungen der Spezialistin Laure de Roucy-Rochegonde (Ifri, Ceri, Sciences Po/CNRS) in ihrem Buch „Krieg im Zeitalter der künstlichen Intelligenz“ stehen die „SALA“.

SALAs? Gewöhnen Sie sich schnell an das Akronym: Dabei handelt es sich um „tödliche autonome Waffen“, die es heute in allen Formen gibt: von Raketenabwehrbatterien über Flug- oder Unterwasserdrohnen, Raketen bis hin zu Shadow Riders, Fahrzeugen ohne Piloten … Der Untertitel seines Werks ist eindeutig : „Wenn die Maschinen zu den Waffen greifen“.

Cicero: „Die Gesetze schweigen inmitten von Waffen“

Erinnern wir uns zunächst an Roucy-Rochegonde, die die besten Waffen- und KI-Experten, aber auch Kant, Camus und den großen Juristen Alain Supiot zitiert, dass die Etymologie der Autonomie „das ist, was seinen eigenen Gesetzen unterliegt“. Und dass die Natur von Kriegen gerade darin besteht, sich vom Gesetz zu befreien: „Die Gesetze schweigen inmitten der Waffen“, sagte schon Cicero, der gleichzeitig daran erinnerte: „Wir sind Sklaven der Gesetze, um frei zu sein.“ »

Lesen Sie auchKI wird die Natur des Krieges verändern

Frage: Was passiert, wenn die Militärbehörde in Bezug auf einen oder mehrere Aspekte der Mission einer halbautonomen Drohne – ihre Flugbahn, ihr Ziel, die Möglichkeit zum Abfeuern – die Entscheidung ganz oder teilweise an die SALA „delegiert“? Nach welchen Kriterien entscheidet die KI? Auf welchem ​​Wertesystem? Wie man die Hauptprinzipien des Kriegsrechts in die Algorithmen der Maschine integriert: die der Vorsicht, der Verantwortung, der Verhältnismäßigkeit oder der Unterscheidung zwischen Zivilisten und Militär.

Im Jahr 1139 verbot das Laterankonzil den Einsatz der Armbrust, die als zu tödlich galt.

Es war schon sehr schwierig, chemische Waffen oder Antipersonenminen ein wenig einzuschränken. Wie können wir hoffen, die „KI regulieren“ zu können und letztendlich immer den Menschen die „Kontrolle über die Streitkräfte“ zu gewährleisten? Das wünscht sich Antonio Guterres, Generalsekretär der Vereinten Nationen, der am 18. Juli 2023 zum ersten Mal einen Sicherheitsrat zu diesem Thema zusammenstellte. Wir können träumen. Wir müssen sogar träumen, wenn wir nicht eines Tages die nützlichen Idioten unserer eigenen Roboterkreaturen sein wollen.

Lesen Sie auchKI-Supercomputer für Armeen: Lecornu will die Angebote von HP-Orange und Atos beleuchten

Roucy-Rochegonde hat auch Recht, wenn er daran erinnert, dass das Laterankonzil im Jahr 1139 den Gebrauch der als zu tödlich erachteten Armbrust verboten hatte! Auf jeden Fall gesteht der Autor eine gewisse Skepsis gegenüber der notwendigen Überwachung von SALA und erst recht ihrem Verbot angesichts der Entwicklung der auf den Schlachtfeldern in der Ukraine oder im Nahen Osten mobilisierten Arsenale. „SALA“, erklärt sie, „untergräbt das eigentliche Prinzip der menschlichen Gewaltkontrolle.“ »

Drei Beispiele zum Verständnis der Problematik der Übergabe von Gewalt an Maschinen:

1. Identifizierung des Feindes: Sind wir sicher, dass Lavender, das amerikanische Erkennungssystem, das von der IDF zur Identifizierung und Lokalisierung von Hamas-Kämpfern – 37.000 – verwendet wird, absolut zuverlässig ist? Einerseits können wir argumentieren, dass diese massive Nutzung aller Daten – es gibt auch andere automatisierte Systeme wie „Gospel“ oder „Where’s Daddy?“ » – ermöglicht Unterscheidungsvermögen, zu dem eine Armee im Felde nicht fähig wäre. Andererseits, bemerkt Roucy-Rochegonde, „begnügen sich Militärangehörige meist damit, die Entscheidungen der Maschine zu genehmigen/…/, obwohl sie wissen, dass die Maschine in etwa 10 % der Fälle Fehler macht…“ C Das ist die ganze Schwierigkeit , denn plötzlich wird Lavender zu viel mehr als nur einem einfachen Geheimdienstwerkzeug. Die Maschine untersucht nicht nur den Vorwurf, sondern steigt de facto vom Status eines Superdetektivs in den Rang eines Sondergerichts auf.

2. Ein Mitgefühlsalgorithmus? Das Buch erzählt auch die Geschichte eines kleinen afghanischen Mädchens, das während des Krieges den Taliban die Positionen einer Gruppe amerikanischer Ranger übermittelte. Grundsätzlich hätte das kleine Mädchen wegen „direkter Beteiligung an Feindseligkeiten“ neutralisiert werden müssen. Die Ranger schämten sich jedoch oder hatten Mitleid und zogen es vor, das Lager zu wechseln, anstatt das Feuer zu eröffnen. Könnte sich die KI diesen Ausbruch des Mitgefühls überhaupt vorstellen?

3. Wem können Sie vertrauen, wenn die Apokalypse auf dem Spiel steht? Die Geschichte ist bekannt. Am 27. Oktober 1962, mitten in der Raketenkrise zwischen der UdSSR und den Vereinigten Staaten, überhitzte ein russisches U-Boot, das für die kalten Gewässer des Pols konzipiert war, in den Gewässern der Karibik. Er rückt zu schnell gegen die amerikanischen U-Boote vor und erweckt den Eindruck eines Angriffs. Ein amerikanisches U-Boot antwortet mit einigen Warnschüssen. Daher könnten die Kommandeure der russischen Flotte denken, dass dies der Beginn einer Generaloffensive sei. Davon sind zwei von drei Kommandanten der U-Boot-Flotte überzeugt. Und gemäß den Anweisungen beschlossen sie, Atomraketen einzusetzen, ohne den Kreml zu konsultieren.

Lesen Sie auchWie sehen die neuen Kriege von der Ukraine bis Gaza aus?

Es war der Kreml selbst, der dieses automatisierte Verfahren im Falle existenzieller Aggression stoppte. Zur Auslösung des Atomfeuers ist noch die Zustimmung des dritten Flottenkommandanten erforderlich. Und er hat Zweifel. Eine Mischung aus Intuition und Analyse der Konfiguration der amerikanischen Flotte, die ihn dazu brachte, die Schüsse abzulehnen. Sein Name ist Arkhipov. Später erklärten die Amerikaner, er habe „die Welt vor einem nuklearen Holocaust gerettet“. Das ist unbestreitbar.

Terminator, der SF-Kultfilm über künstliche Intelligenz und Krieg von Jameds Cameron. Bildnachweis: Cameron

Rüstungshersteller achten auf die Autonomie der Funktionen

Frage: Wäre die KI in der Lage gewesen, eine ähnliche Kontextanalyse wie Arkhipov durchzuführen? Oder hätte sie die vom Kreml vorgeschriebene Anweisung zur sofortigen Reaktion befolgt? Und sollten wir dann nicht heute das Verfahren anwenden, das kollegiale Einstimmigkeit erfordert, bevor man an den Maschinen selbst handelt? Indem wir grünes Licht von drei KI-Maschinen verlangen und nicht nur von einer!

Sicherlich erinnert sich Laure de Roucy-Rochegonde in ihrem Buch mindestens sechs oder sieben Mal daran, dass ein Roboter-Terminator, wie er sich James Cameron (1984) vorgestellt hat, also vom Entwurf bis zur Produktion seiner Interventionen völlig unabhängig von Menschen ist, nicht existiert und sollte kurzfristig nicht existieren.

Dies könnte beruhigend sein, wenn Rochegonde nicht sofort hervorheben würde: „Der Trend zur immer stärkeren Integration autonomer Funktionalitäten in Waffensysteme.“ » „Um den Ansprüchen des Staates gerecht zu werden“, fügt sie hinzu, „neigen Industrielle dazu, immer mehr Funktionen zu autonomisieren und sagen gerne: „Autonomie ist überall.“ »

„Der mannlose Kampf entwickelt sich allmählich zur Zukunft der Kriegsführung“

Fügen Sie diese Aussage von Wang Weizing, dem Militärforschungsarzt der Chinesischen Volksbefreiungsarmee, hinzu, um die beschleunigte Veränderung militärischer Daten zu messen: „Der mannlose Kampf entwickelt sich allmählich zur Zukunft der Kriegsführung. »

Während einer Rede am 28. August 2023 stellte US-Verteidigungsministerin Kathleen Hicks das „Replicator Project“ vor: eine „Armee autonomer Killerroboter“, die von KI gesteuert werden, für 2025. Dieselbe Agenda Chinesen und die Russen scheinen es zu sein. voraus… A priori gute Nachrichten für demokratische Länder, die immer sehr anfällig für die Emotionen der öffentlichen Meinung sind, die mit den menschlichen Verlusten von Soldaten konfrontiert sind, ob eingezogen oder nicht.

Lesen Sie auchHelsing, das Start-up, das davon träumt, der Palantir der militärischen künstlichen Intelligenz zu werden

Zumal die erheblichen Kosten für die Ausbildung und den Unterhalt bewaffneter Soldaten durch die sehr intensive psychologische Überwachung von Veteranen, die in das zivile Leben zurückgekehrt sind, noch verschärft werden. Ja, es stimmt absolut, dass demokratische Staaten auf den ersten Blick davon profitieren würden, Bürgersoldaten durch Roboter zu ersetzen.

Demokratische Debatte

Aber seien Sie vorsichtig: Regierungen oder Generalstäbe riskieren dann, sich der Kontrolle von Parlamentariern und Wählern zu entziehen, denen Fragen im Zusammenhang mit Krieg und Frieden gleichgültig geworden sind, da ein Krieg nicht mehr oder nur wenige töten würde.

Von da an wäre es der demokratische Pakt, der auf Blut basiert, der geschwächt würde, wie der Philosoph Grégoire Chamayou zusammenfasst: „Weil die Souveränität der Krieger das Leben ihrer Untertanen preisgibt und sie lebende Bürger sind, die ein Recht darauf haben.“ Es eröffnet sich ihnen die Kontrolle über diese Macht, die sie verletzen oder zu ihrem Tod führen kann. »

Eine weitere Schwierigkeit: Eine vorwiegend aus Robotern bestehende Armee wäre zweifellos in der Lage, sich in einem Konflikt mit einer traditionellen Armee durchzusetzen, aber wäre sie auch in der Lage, Bevölkerungen, Herzen und Köpfe zu vereinen, um dauerhaften Frieden zu gewährleisten? Alle amerikanischen Interventionen in Vietnam, Somalia, Afghanistan und Irak, die von modernster Technologie profitierten, haben es überhaupt nicht geschafft, die Bevölkerung zu mobilisieren. Sollten wir darüber nachdenken, friedensstiftende Roboter zu bauen? Vermittler? Es scheint noch nicht in Planung zu sein, aber wer weiß?

Lesen Sie auchAI: Google ist in der Militärfrage zerrissen

Schließlich ist das gesamte hierarchische Konzept der Armee betroffen, das Daten und Analysen an den Generalstab sendet, sobald sich die Truppendelegationen auf dem Schlachtfeld vermehren. Erstens, um die gigantischen Datenmengen zu sammeln und zu interpretieren, die bereits in die Algorithmen der Raketenabwehr- und Drohnenabwehrbatteriesysteme einfließen, die im zweiten Fall Schüsse auslösen können und sogar müssen, sobald ein Raketenangriff erkannt wird.

„Fesseln Sie den Titan, um Chaos zu vermeiden“

Die Autonomie ist manchmal sehr weitreichend: Dies ist der Fall beim südkoreanischen Wachroboter SGR-AI, der in der entmilitarisierten Zone zwischen den beiden Koreas installiert ist. SGR-AI überwacht, lokalisiert bei Bedarf seine Ziele und beschließt, das Feuer mit einer solchen Geschwindigkeit zu eröffnen, dass der Feind nicht reagieren kann. Und das ist gut so, denn jede Sekunde zählt.

Aber das ist zu schade für die menschliche Kontrolle, die dann eher ratifiziert als lenkt.

Kurz gesagt, wir kommen nervös aus Roucy-Rochegondes Buch. Wir verstehen, dass wir Menschlichkeit und Kontrolle garantieren müssen … Aber was für klassische Staaten bereits schwer vorstellbar ist, wird für Terrororganisationen oder Schurkenstaaten, die der Autor nicht erwähnt, noch schwieriger sein.

Eines ist sicher: Regulierung ist eine zwingende Notwendigkeit, wenn wir verhindern wollen, dass sich die Risiken „autonomer“ Epidemien größerer Konflikte verstärken.

Hören Sie sich die Schlussfolgerung von Roucy-Rochegonde an, die unsere armen menschlichen Neuronen wie eine eisige Flüssigkeit zerstört: „Wir müssen den Titan anketten, um kein Chaos auszulösen.“ » Habt trotzdem ein schönes Wochenende!

Cover des Buches „Krieg im Zeitalter der künstlichen Intelligenz“ Quelle: Editions PUF

Related News :