DayFR Deutsch

Strategien von Cyberkriminellen zur Kompromittierung von LLMs

-

Zu den möglichen Angriffen auf die KI gehört die LLM-Entführung stellt eine wachsende Bedrohung für Organisationen dar, die fortgeschrittene Sprachmodelle verwenden. Das Verständnis von Angriffsmethoden und Angreifermotiven ist für die Stärkung der Abwehrmaßnahmen zum Schutz von Vermögenswerten von entscheidender Bedeutung
gegen Missbrauch.

Die Demokratisierung von Technologien der künstlichen Intelligenz schafft ein neues Schlachtfeld für die Cybersicherheit von Unternehmen. Der erweiterte Zugang zu hochentwickelten KI-Modellen öffnet die Tür für neue Bedrohungen. Cyberkriminelle nutzen zunehmend die API-Schnittstellen wichtiger Sprachmodelle durch Angriffe wie LLM-Entführung oder Modellvergiftung.

Cyberkriminelle nutzen den KI-Technologie-Stack auf vielfältige Weise. Sie zielen auf LLMs, Algorithmen für maschinelles Lernen und APIs für illegale Zwecke ab. Sobald sie kompromittiert sind, können sie KI-Ausgaben für böswillige Operationen wie Phishing oder Desinformation manipulieren, Rechenressourcen für Kryptowährung stehlen oder APIs nutzen, um automatisierte Angriffe zu starten.

LLMjacking auf dem Vormarsch

Laut einem Bericht des Threat Research Teams von Sysdig (Sysdig TRT) LLM-Entführung hat sich wie eine schlimme Grippe verbreitet. Sysdig TRT hat die Entwicklung der Angriffe und die Motivationen der Cyber-Angreifer beobachtet. Diese reichen von der „kostenlosen“ persönlichen Nutzung von LLM-Konten bis hin zum Verkauf von Zugangsdaten an Personen, die von ihrem LLM-Dienst gesperrt wurden, oder an Unternehmen in Ländern, die von den betreffenden KI-Plattformen sanktioniert wurden.

LLMs sind zu unverzichtbaren Werkzeugen in verschiedenen Bereichen geworden, von der Unterstützung bei der Code-Entwicklung über das automatisierte Schreiben bis hin zur Dialogmodellierung. Ihre hohen Kosten haben das Interesse von Angreifern geweckt, sie missbrauchend auszunutzen, eine Praxis, die als LLM-Entführung. Dabei handelt es sich um eine Angriffstechnik, bei der böswillige Akteure API-Schnittstellen manipulieren, um illegal auf das Modell zuzugreifen und es zu verwenden. Diese Bedrohung ist besonders im Kontext der generativen KI besorgniserregend, da der Betrieb von Modellen teuer ist und diese oft über APIs zugänglich sind.

Die zweite Art von Angriff wird durchgeführt von „Trainingsdatenvergiftung“.
Dabei werden die Antworten des Modells durch die Einspeisung verzerrter Daten verfälscht, um das Modell zu vergiften. Mit dieser Art von Angriff können die Antworten und Entscheidungen von Algorithmen verändert werden, um bestimmte Ziele zu erreichen, wie etwa Desinformation und das Erzielen abgelenkter Antworten und Entscheidungen. Dieses Risiko ist besonders in sensiblen Sektoren wie dem Finanz- oder Gesundheitssektor gefährlich.

Irreführende Modelle mit irreführenden Informationen

Schwachstellen in KI-Modellen können auch von Angreifern ausgenutzt werden, die „widersprüchliche Beispiele »Das heißt, leicht veränderte Eingaben in Systeme. Diese subtilen Änderungen reichen aus, um die KI dazu zu bringen, falsche Ergebnisse zu generieren. Dies kann die Sicherheit kritischer Systeme gefährden, beispielsweise solcher, die zur Betrugserkennung oder Bilderkennung eingesetzt werden.

Eine weitere Angriffsmethode besteht darin, „Modellextraktion »Dabei senden Cyberkriminelle eine große Anzahl von Anfragen, um die Antworten der KI zu analysieren. Auf diese Weise können sie KI-Modelle, deren Entwicklung teuer ist, nachbilden oder stehlen. Diese gestohlenen Modelle können dann weiterverkauft oder für böswillige Zwecke verwendet werden.

Die wichtigsten Missbrauchsfälle kompromittierter KI

Laut dem Sysdig TRT-Bericht ist einer der Hauptmissbrauchsfälle kompromittierter KI die automatische Generierung bösartiger Inhalte. Große Sprachmodelle wie GPT können verwendet werden, um Tausende von Phishing-E-Mails, bösartigen Skripten oder groß angelegten Desinformationskampagnen zu generieren, was die Wirksamkeit und das Ausmaß von Angriffen erhöht. Auf diese Weise können Angreifer maßgeschneiderte und personalisierte Inhalte erstellen, die Opfer leichter täuschen und Angriffe schwerer zu erkennen machen.

Ein weiterer Einsatzzweck ist die Manipulation automatisierter Entscheidungen in Unternehmen. Kompromittierte KI-Modelle können kritische Prozesse wie die Personalbeschaffung oder Kreditgenehmigung beeinflussen. Ein voreingenommenes oder manipuliertes Modell könnte beispielsweise betrügerische oder unethische Entscheidungen fördern, was erhebliche Konsequenzen für die Einhaltung gesetzlicher Vorschriften und das Risikomanagement nach sich ziehen würde. Dies gefährdet die Integrität automatisierter Entscheidungsprozesse und birgt nicht nur finanzielle, sondern auch rechtliche Risiken für betroffene Organisationen.

Schließlich können Cyberkriminelle die von der KI genutzten Ressourcen monetarisieren, indem sie die zugrunde liegenden Rechenkapazitäten dieser Systeme, wie etwa GPUs, kapern, um intensive Operationen wie das Mining von Kryptowährungen durchzuführen. Indem sie die Rechenressourcen einer Organisation ohne Erlaubnis nutzen, minimieren sie ihre Kosten und steigern gleichzeitig ihre illegalen Gewinne. Diese Ressourcenumleitungen können auch zu Verlangsamungen legitimer Systeme führen, was zu Produktivitätsverlusten und zusätzlichen Kosten für die betroffenen Organisationen führt.

Related News :