KI als Angriffsfläche: Wenn intelligente Systeme selbst zum Risiko werden
Mit dem produktiven Einsatz von KI entstehen neue, oft schwer sichtbare Angriffsflächen innerhalb moderner IT-Architekturen: Anders als klassische Systeme verarbeiten KI-Modelle nicht nur Daten, sondern interpretieren, generieren und leiten daraus Entscheidungen ab. Genau diese Flexibilität eröffnet neue Angriffsvektoren. Die Risiken entstehen dabei nicht an einer einzelnen Stelle, sondern entlang der gesamten KI-Pipeline – von Trainingsdaten über Modellverhalten bis hin zur Integration in Geschäftsprozesse.
Die folgende Übersicht zeigt zentrale Angriffspunkte, an denen KI-Systeme heute besonders verwundbar sind:
Prompt Injection
Manipulierte Eingaben bringen das Modell dazu, Regeln zu ignorieren oder unerwünschte Aktionen auszuführen.
Die Gefahr: Kann interne Informationen offenlegen oder Funktionen missbrauchen.
Typische Maßnahmen: Klare Systemgrenzen, strikte Kontext‑Trennung, Input‑/Output‑Filter
Offenlegung sensibler Informationen
Das Modell gibt versehentlich personenbezogene Daten, Geschäftsgeheimnisse oder Trainingsinhalte aus.
Die Gefahr: Datenschutz‑ und Compliance‑Risiken.
Typische Maßnahmen: Datensanitization, Zugriffsbeschränkungen, klare Nutzungsrichtlinien
Supply‑Chain‑Risiken
Unsichere oder manipulierte Drittanbieter‑Modelle, Adapter oder Datensätze gefährden die Integrität.
Die Gefahr: Versteckte Hintertüren und Lizenzprobleme.
Typische Maßnahmen: Lieferanten‑Audits, SBOMs, Modell‑Signaturen, Versionspflege
Daten‑ und Modellvergiftung
Vergiftete Trainings‑ oder Retrieval‑Daten beeinflussen Ausgaben gezielt oder bauen Backdoors ein.
Die Gefahr: Verfälschung von Wissen und Entscheidungen.
Typische Maßnahmen: Quellenprüfung, Versionierung, Red‑Teaming, Anomalie‑Erkennung
Unsichere Weiterverarbeitung von Ausgaben
LLM‑Outputs werden ungeprüft an Systeme übergeben (z. B. Browser, DB, Shell).
Die Gefahr: Ermöglicht XSS, SQL‑Injection oder Code‑Ausführung.
Typische Maßnahmen: Kontextabhängige Ausgabe‑Kodierung, Prepared Statements, Zero‑Trust.
Excessive Agency (zu viel Handlungsmacht)
KI‑Agenten dürfen zu viele Aktionen ausführen, ohne ausreichende Kontrolle.
Die Gefahr: Datenverlust, Missbrauch privilegierter Aktionen.
Typische Maßnahmen: Least‑Privilege, reduzierte Tool‑Funktionen, Human‑in‑the‑Loop
(Quelle: OWASP Top 10 für LLMs)