LDas Pariser Friedensforum (11. und 12. November), an dessen Rande am Sonntag, dem 10. November, ein Treffen zwischen Präsident Macron und einer Beratergruppe für künstliche Intelligenz (KI) stattfand, findet im Schatten anhaltender Kriege in Europa statt dem Nahen Osten.
Russische und ukrainische Telegram-Kanäle sind voll von Videos von Drohnen, sowohl Militärmodellen als auch DIY-Verbrauchermodellen, die Kämpfer verfolgen, die versuchen, ihrer hohen Drohne zu entkommen, bevor sie vor den Augen Tausender Zuschauer verbrannt werden. Mehrere Nachrichtenberichte enthüllten auch, dass Israel ein KI-System zur Auswahl von Zielen in Gaza einsetzte.
Wir befinden uns an einem wichtigen Wendepunkt in der Kriegsführung, an der Schwelle zum Übergang von einem Krieg, der von KI-unterstützten Menschen geführt wird, zu einem Krieg, der von KI-unterstützten Menschen geführt wird. Ein solcher Wandel, bei dem die KI die endgültige Entscheidung treffen würde, tödliche Angriffe ohne menschliches Eingreifen durchzuführen, würde eine neue dunkle Ära für unsere Spezies einläuten.
Lesen Sie auch | Artikel für unsere Abonnenten reserviert „Auf dem Schlachtfeld übertrifft KI die militärischen Erwartungen“
Später lesen
Die Entfernung von Menschen aus der Entscheidungsfindung könnte zu einer beispiellosen Effizienz bei Kriegsverbrechen führen und die Möglichkeit ausschließen, dass untergeordnete Offiziere Befehle zur Beendigung von Massakern an unbewaffneten Zivilisten oder Kombattanten, die sich im Einklang mit dem Völkerrecht ergeben haben, in Frage stellen.
Massive Verluste
KI-Systeme können sich mit unglaublicher Geschwindigkeit weiterentwickeln und ein Programmierfehler könnte massive Verluste verursachen, bevor menschliche Vorgesetzte es überhaupt bemerken, oder Konflikte auf niedriger Ebene in eine Eskalation treiben, die von politischen Entscheidungsträgern nicht beabsichtigt war.
Lesen Sie auch die Spalte | Artikel für unsere Abonnenten reserviert „Künstliche Intelligenz verändert traditionelle Paradigmen der Kriegsführung“
Später lesen
Diese Risiken belasten nicht nur den Boden, sondern auch Cyberwaffen. DER Schadsoftware [« logiciels malveillants »] Autonome und automatisierte Systeme werden von den Staaten schon seit relativ langer Zeit eingesetzt. Die Entwicklung des Stuxnet-Virus durch die USA, der das iranische Atomprogramm erfolgreich lahmlegte, begann vermutlich im Jahr 2005.
Aber diese Tools erforderten oft detaillierte Kenntnisse der Zielsysteme durch menschliche Intelligenz – wie bei Stuxnet – oder sie mussten weit verbreitet sein, um effektiv zu sein – wie NotPetya und WannaCry, die von Russland und Nordkorea vertrieben werden.
Lesen Sie auch | Artikel für unsere Abonnenten reserviert Der Einsatz künstlicher Intelligenz durch die israelische Armee stellt das Kriegsrecht in Frage
Später lesen
Wenn es um Cyberangriffe geht, kam KI bisher vor allem den Verteidigern zugute, wie Unternehmen wie meinem [SentinelOne] Nutzen Sie es, um Angriffe in Echtzeit zu erkennen und zu stoppen.
Sie haben noch 60,65 % dieses Artikels zum Lesen übrig. Der Rest ist den Abonnenten vorbehalten.