Steht Sicherheit von GenAI aus?

Steht Sicherheit von GenAI aus?
Steht Sicherheit von GenAI aus?
-

In den letzten Monaten gab es keine einzige IT-Fachkonferenz oder Verkaufsgespräch ohne mindestens ein Kapitel über KI. Aber was bedeutet das zum Beispiel für die Sicherheit, einen Bereich, in dem wir es vorziehen, keinen überwältigenden Angriffen ausgesetzt zu sein? Um das herauszufinden, haben wir uns an die europäische Sicherheitsfirma Eset gewandt.

GenAI ist auch bei Eset ein sehr präsentes Thema. So kündigt das slowakische Sicherheitsunternehmen seinen ersten AI Advisor an. Der Chatbot soll Sicherheitsanalysten helfen, insbesondere durch die Durchsicht der zahlreichen veröffentlichten Forschungsberichte. „Wir haben es weiter optimiert, um weitgehend unabhängig von den Terminals zu arbeiten“, sagt er Richard MarkoCEO von Eset, vor dem Publikum der Eset World-Konferenz in Bratislava, Slowakei.

Diese Offline-Arbeit ist überraschend, da wir uns mittlerweile an die ständige Notwendigkeit einer Internetverbindung gewöhnt haben, die Technologiegiganten benötigen, um ihre künstliche Intelligenz in der Cloud zu betreiben. Aus Sicherheitsgründen ist es aber auch sinnvoll, dass Sie das Netzwerk von Zeit zu Zeit trennen möchten. Wie bei einem aktiven Angriff. „Wir haben auch viele Kunden, die beispielsweise in Umgebungen mit ‚Luftschleusen‘ netzunabhängig bleiben“, fügt er hinzu Juraj Jánošík , Leiter des KI/ML-Lernens bei Eset. Denken Sie zum Beispiel an Containerschiffe, die nicht im Netzwerk sind, aber von Zeit zu Zeit aktualisiert werden müssen und dann anfällig für Infektionen sind. „Auch hier wollen wir Module installieren können, die Schadcode erkennen können“, erklärt er.

Nicht neu

Die Scanner der Sicherheitssoftware Esets Protect und die der meisten anderen Anbieter nutzen bereits seit mehreren Jahren maschinelles Lernen und Algorithmen, um Malware besser zu erkennen. „Das ist nichts Neues“, betont Jánošík gegenüber Data News. „Wir nutzen Algorithmen schon seit Jahren zur Erkennung von Schadsoftware und Angriffen, und ebenso lange entwickeln wir sie weiter.“ Hierfür nutzen wir mittlerweile modernste Technologien, beispielsweise Transformatoren. Der Trick besteht jedoch darin, die Größe der KI zu reduzieren. „In der Cloud können Sie tun und lassen, was Sie wollen: sehr große Modelle betreiben, die viel Strom verbrauchen, aber auf ihren Geräten möchten Benutzer, dass die Sicherheit den Betrieb so wenig wie möglich verlangsamt.“

Diese Modelle sind derzeit für den Betrieb auf CPUs optimiert. „Aber wir arbeiten mit Intel zusammen, um Designs zu entwickeln, die auf neuen Chips in einer NPU (Neural Processing Unit) laufen können.“ „Das dürfte noch effektiver sein“, fügt Janošík hinzu.

NPU

Diese Art von NPU ist die Geheimwaffe KI-gestützter PCs, die in den letzten Monaten auf dem Vormarsch sind. „Mittlerweile gibt es eine Reihe von Anbietern, die diese Produkte herstellen“, sagt er Alastair Edwards von Canalys. „Wir gehen davon aus, dass bis 2027 etwa sechzig Prozent aller verkauften PCs eine NPU enthalten werden.“ Eine NPU muss unter anderem bessere Ergebnisse bei der Verarbeitung künstlicher Intelligenz liefern. „Damit können Sie KI-Funktionen auf dem Gerät selbst ausführen, anstatt in der Cloud“, sagt Edwards. „Es ist schneller und da man GPU und CPU einen Teil der Arbeit abnimmt, kann es auch energieeffizienter sein.“ „Das ist unter anderem gut für die Akkulaufzeit eines solchen Geräts.“

Durch die Ausführung eines Teils der Malware-Erkennung auf dieser NPU hofft Eset, ein schnelleres und unabhängigeres Modul zu schaffen, das die neue Technologie auch offline nutzen kann.

‘Die andere Seite’

Sicherheitsfirmen erkennen also den Wert von KI, aber bietet die Technologie nicht auch die gleichen Vorteile für die „Gegenseite“? „Eset erkennt nicht direkt viel Bewegung in der KI für kriminelle Banden“, sagt Juraj Malcho, CTO von Eset: „Wir sehen, dass die Banden selbst keine LLMs bilden.“ Es geht ihnen hauptsächlich darum, bestehende Modelle wie die von OpenAI oder Mistral zu „jailbreaken“. Sie versuchen daher, sie für ihre eigenen Zwecke zu nutzen.“

Elod Kironsky , Vizepräsident von Endpoint Solutions, stimmt zu: „Kriminelle verfügen weder über die Hardware noch über die Daten, um selbst Modelle zu erstellen.“ Und da diese Modelle mit älteren Daten arbeiten, ist die Gefahr geringer als Sie denken. „Die Daten eines Lamas oder Mistrals sind in der Zeit eingefroren, während sich die Organisationen, die sie erreichen möchten, ständig weiterentwickeln.“ Kriminelle verfügen nicht über die notwendigen Daten, um anstößige KI zu erstellen. Um es klarzustellen: Wir sprechen hier nicht von Nationalstaaten, die über die notwendigen Ressourcen und das nötige Personal verfügen. Doch innerhalb des Sicherheitsunternehmens sehen wir derzeit vor allem die positiven Seiten. „Wir haben bisher immer versucht, mitzuhalten“, sagt Juraj Jánošík. „Wir versuchen, Schutzschichten zu schaffen, während Angreifer versuchen, diese zu umgehen.“ Sie können auch die KI umgehen, was eine zusätzliche Ebene darstellt, aber das verschafft uns einen kleinen Vorteil. Die Vorlagen, die wir heute haben, können verwendet werden, um Forschern bei der Berichterstellung und Verwaltung zu helfen, sodass sie sich auf das Wesentliche konzentrieren können, beispielsweise auf das Erkennen von Bedrohungen. Da derzeit ein Mangel an Sicherheitsforschern besteht, ist dies ein wichtiger Vorteil.“

-

PREV Welcher Pizzaofen für den Sommer?
NEXT Ligue 1 – 2024–2025: der komplette OM-Kalender