DayFR Deutsch

INTERVIEW. Mit der „Lavender“-Software „ermöglicht künstliche Intelligenz Israel, Ziele in Echtzeit zu erkennen“

-

Israel nutzt künstliche Intelligenz, um die Hamas – im vergangenen April wurde die Zahl von 37.000 Kämpfern und Militanten als Zielscheibe genannt – und die Hisbollah zu bombardieren. Wie funktioniert die Lavender-Software?

Heute gibt es automatische Systeme zur Erkennung von Formen und Silhouetten. Künstliche Intelligenz ermöglicht es Israel, Ziele in Echtzeit zu erkennen, eine technologische Meisterleistung. Das heißt, dass dies heute nicht über einen Satelliten erfolgt, für den eine zweiwöchige Vorlaufzeit erforderlich ist: Sie verfügen über Beobachtungsdrohnen, die eine Aktion wie die Eliminierung „eines Kämpfers“ ermöglichen, und der Bediener hat etwa 30 Sekunden Zeit, um zu reagieren.

Geht es dabei auch um eine Gesichtserkennung mithilfe einer riesigen Datenbank?

Ich habe dazu keine Informationen, aber im Allgemeinen wird die KI eher menschliche Formen bei der Installation von Munition und Abschussplätzen erkennen. Beispielsweise fliegt die Drohne automatisch von einer von Hamas oder Hisbollah abgefeuerten Rakete in die Schusszone. Dies ermöglicht eine schnellere und bessere Identifizierung von Orten und , die eine Aktion vorbereiten. Natürlich gibt es immer Satellitenaufklärung, aber zusätzlich wird die israelische Armee eine Summe von Signalen und Indikatoren aus verschiedenen Beobachtungsbildern, elektromagnetischer Strahlung von Mobiltelefonen, Abhörmaßnahmen, die sie an diesen Telefonen und Radios vornehmen wird, alles sammeln. Sie werden alle Sensoren zusammentragen, die sie haben, und diese Menge an Informationen wird die Entscheidungsfindung ermöglichen.

Verfügen israelische Drohnen dank künstlicher Intelligenz über die Autonomie bei der Feuerentscheidung, um in Echtzeit zu reagieren, wenn sie glauben, ein Ziel zu haben?

NEIN. Das einzige Land, das dies getan hat – ein Fehler, den die UN anprangert – ist die Türkei. In Libyen wurden Drohnen eingesetzt, die autonome Tötungsentscheidungen trafen und unschuldige Menschen töteten. Was Israel betrifft: Wenn die Drohne autonom fliegt, liegt die Entscheidung zum Abfeuern immer noch beim Menschen, aber das wirft die Frage nach den Reaktionszeiten auf. Haben Sie Zeit, alle Parameter in 30 Sekunden zu überprüfen? Wir wissen, dass es Fehler gibt. Wir kennen den Fall, dass die Person, die die Raketen mit der Hand tragen sollte, tatsächlich ein Fahrrad schob. Es gibt auch dieses Beispiel für den Transport von Sauerstoffflaschen in ein Krankenhaus … Allerdings verfügen sie in den allermeisten Fällen, um es klarzustellen, über sehr hohe Effizienzraten und Methoden, die Kollateralschäden reduzieren, beispielsweise explosionsfreie Waffen, beflügelte Raketen oder Bomben dessen Masse ausreicht, um das Ziel zu zerstören.

Wir können jedoch nicht umhin, die beträchtliche Zahl der in Gaza und im Libanon getöteten Zivilisten zu bemerken. Wenn der Einsatz künstlicher Intelligenz nicht gegen das Völkerrecht verstößt, könnte er dann dennoch als Kriegsverbrechen angesehen werden, wie einige Experten glauben?

Das Kriegsverbrechen besteht darin, Zivilisten als menschliche Schutzschilde zu missbrauchen. Wir sind überhaupt nicht mehr in der amerikanischen Art der 90er bis Anfang der 2000er Jahre, als wir, um es einfach auszudrücken, sobald ein Mann eine Schaufel mitbrachte, ihn erschossen, weil wir dachten, er würde vielleicht ein Loch graben und eine Mine legen darin. Meiner Meinung nach ermöglicht uns künstliche Intelligenz im Gegenteil, die Entscheidungsfindung zu beschleunigen, Fehler zu reduzieren und die Zahl der Kriegsverbrechen zu verringern. Natürlich tut Israel das. Sie gehen mit der Artillerie hart vor, sie setzen in bestimmten Gebieten stärkere Bomben ein als nötig, sie töten sogar ihre eigenen Geiseln, wenn sie sich mit erhobenen Händen ergeben, weil sie auf alles schießen, was sich bewegt. Aber meiner Meinung nach ermöglicht künstliche Intelligenz im Gegenteil, die Zahl der getöteten unschuldigen Menschen zu verringern.

Related News :