Geschrieben von Markus Zeischke

Meist ist es kein böser Wille, sondern menschliche Nachlässigkeit. Unter Zeitdruck oder aus Bequemlichkeit nutzen Mitarbeitende unautorisierte Tools (Shadow AI) oder laden sensible Daten in öffentliche LLMs hoch. Im KI-Zeitalter skaliert ein kleiner Flüchtigkeitsfehler – wie ein unbedachter Prompt – sofort zu einem massiven Datenleck.
Identitätssicherheit ist das digitale Schloss. Durch Zero Trust und das Least-Privilege-Prinzip wird sichergestellt, dass Nutzer nur Zugriff auf das haben, was sie zwingend benötigen. KI-gestützte Systeme erkennen dabei in Echtzeit, wenn ein Login-Muster (Ort, Zeit, Gerät) untypisch ist, und blockieren kompromittierte Accounts, bevor Schaden entsteht.
KI kann als digitales Immunsystem fungieren: Sie erkennt Deepfakes durch die Analyse synthetischer Frequenzen, entlarvt KI-Phishing anhand unüblicher Kommunikationskontexte und überwacht Datenströme zu externen KI-Plattformen. Sie schützt den Menschen dort, wo seine biologische Wahrnehmung gegen hochpräzise KI-Fälschungen an Grenzen stößt.
Stellen wir uns folgendes Szenario vor: Ein Mitarbeiter erhält einen dringenden Anruf von seinem CFO. Die Stimme klingt völlig authentisch: „Bitte sofort die Zahlung freigeben. Es ist zeitkritisch.“ Die Zahlung wird freigegeben. Doch der CFO hat nie angerufen.
Solche Deepfake Täuschungen sind längst kein Ausnahmefall mehr: Die Zahl synthetischer Audio und Videodateien ist weltweit von 500.000 im Jahr 2023 auf 8 Millionen in 2025 im Jahr 2025 explodiert (+900 % jährlich). Gleichzeitig werden Mitarbeitende durch KI optimierte Social Engineering Angriffe immer leichter manipulierbar: KI Phishing erreicht inzwischen eine Klickrate von 54 % – 4,5 mal mehr als klassische Phishing Mails (12 %). Und intern entsteht eine zweite Gefahr: 15 % der Mitarbeitenden nutzen GenAI Tools, 72 % davon über private Accounts, was schnell zu Leaks über Shadow AI führen kann.
Das Resultat: Der moderne Insider ist nicht mehr nur ein Mensch, sondern ein Mensch, unterstützt oder getäuscht durch KI.
Diese Beispiele zeigen: KI verändert nicht nur die Angriffstechniken von außen, sondern verschiebt auch das Risiko im Inneren eines Unternehmens. Mitarbeitende, die unter Zeitdruck handeln, auf überzeugende Deepfakes reagieren oder unbewusst Shadow‑AI‑Tools nutzen, können schnell zum Teil der Angriffskette werden.
Daraus entsteht ein neues Bedrohungsprofil: der Insider 2.0 – ein Zusammenspiel aus menschlichem Verhalten, digitalen Werkzeugen und KI-gestützter Täuschung. Die sicherheitsstrategische Herausforderung besteht darin, zu verstehen, wie dieser Insider entsteht, warum KI als Multiplikator wirkt und welche Insider-Risiken neu bewertet werden müssen.
In einem typischen Unternehmen von heute arbeiten Menschen unter Zeitdruck, nutzen digitale Tools, wechseln zwischen Meeting, Mail und Chat und jederzeit könnte ein Angreifer genau diese Dynamik ausnutzen. Die Idee des Insiders ist dabei keineswegs neu. Doch was sich verändert hat, ist das Zusammenspiel von Mensch und Technologie. KI verschiebt die Grenzen dessen, was ein Insider auslösen kann, ob bewusst oder unbewusst. Traditionell lassen sich Insider grob in drei Rollenbilder einteilen:
Der böswillige Insider: Hier steht die Absicht im Vordergrund: jemand greift bewusst auf vertrauliche Informationen zu, manipuliert Systeme oder verfolgt persönliche oder wirtschaftliche Motive. KI verschiebt das Machtverhältnis: Aufgaben, die früher technisches Know-how erforderten, lassen sich heute durch einfache Anfragen oder automatisierte Systeme erledigen. Der böswillige Insider braucht weniger Expertise und hat zugleich mehr Möglichkeiten, unentdeckt zu agieren.
Der nachlässige Insider: Hierbei handelt es sich um die häufigste Form. Jemand handelt nicht aus Bosheit, sondern aus Zeitdruck, Bequemlichkeit oder Unwissenheit. Vielleicht nutzt er ein nicht freigegebenes KI‑Tool, lädt vertrauliche Inhalte hoch oder gibt versehentlich Zugangsdaten preis. KI macht diese Form der Fahrlässigkeit besonders riskant, weil scheinbar harmlose Handlungen wie ein Prompt oder ein Upload plötzlich große Datenmengen preisgeben können. Was wie eine Abkürzung wirkt, wird schnell zum Sicherheitsproblem.
Der kompromittierte Insider: Die gefährlichste Rolle ist oft diejenige, die gar nicht mehr vom Menschen selbst ausgeht: Ein Konto wird übernommen, ein Gerät wird infiziert, ein Login wird missbraucht und von außen wirkt alles legitim. KI sorgt dafür, dass sich Angreifer noch besser tarnen können: Sie imitieren Kommunikationsmuster, erzeugen glaubwürdige interne Anfragen und agieren mit einer Präzision, die herkömmliche Erkennungsmethoden unterläuft. Der kompromittierte Account wird zum perfekten Insider –unsichtbar, funktional und vertrauenswürdig.
Die bisherigen Rollenbilder bleiben bestehen, aber KI verändert die Spielregeln:
Nicht der Insider verändert sich, sondern die Möglichkeiten und Gefahren. Ob absichtlich, fahrlässig oder fremdgesteuert, jeder Insider‑Typ wird durch KI stärker, schneller und schwerer erkennbar. Der Insider 2.0 ist daher kein neuer Tätertyp, sondern das Ergebnis eines neuen Ökosystems. Eines, in dem Mensch und Maschine eng verzahnt arbeiten, Angreifer menschliches Verhalten imitieren und KI alltägliche Arbeitsabläufe durchdringt.
Damit verschiebt sich die Sicherheitsfrage weg von: „Wer hat Zugriff?“ hin zu: „Was kann dieser Zugriff verursachen?“.
Wenn KI im Unternehmenskontext zum Werkzeug wird, entfaltet sie ihr Potenzial in beide Richtungen: Sie steigert Effizienz und Kreativität, aber sie öffnet auch Türen, die vorher verschlossen waren. Diese Beispiele zeigen, wie sich Insider Threats im Alltag möglich werden.
In vielen Unternehmen ist Shadow AI längst Alltag. Mitarbeitende nutzen KI Tools, um sich Arbeit zu erleichtern: ein schneller Textentwurf, eine Analyse, eine Übersetzung, eine Empfehlung. Der Gedanke ist pragmatisch, die Konsequenz oft unsichtbar.
Denn jedes Mal, wenn vertrauliche Inhalte in ein nicht freigegebenes System wandern, entsteht ein potenzielles Datenleck. Und anders als bei klassischen Tools ist nicht immer klar, wo die Informationen landen, wie sie verarbeitet oder gespeichert werden und ob sie später erneut auftauchen könnten.
Shadow AI ist damit weniger ein technisches als ein kulturelles Problem: Nicht die Technik an sich ist das Risiko, sondern ihr unkontrollierter Einsatz im Alltag.
Während Shadow AI aus Versehen Türen öffnet, zielen Deepfakes darauf ab, Vertrauen gezielt zu untergraben. Eine künstlich erzeugte Stimme einer Führungskraft, eine manipulierte Videobotschaft oder eine täuschend echte Freigabeanweisung können ausreichen, um Entscheidungen in Gang zu setzen, die niemand beabsichtigt hat.
Früher konnte man sich auf bestimmte Merkmale verlassen: Klangfarbe, Sprachmuster, Gestik, Auftreten. Diese Signale sind heute manipulierbar. Die Folge: Entscheidungen, die auf persönlicher Glaubwürdigkeit basieren, werden angreifbar. Teams, die schnell reagieren müssen, laufen Gefahr, vertraute Kommunikationswege nicht mehr unterscheiden zu können.
Das Szenario ist nicht futuristisch, es passiert bereits. Und es verändert, wie Unternehmen interne Kommunikation absichern müssen.
Klassisches Phishing setzte auf Streuverluste: viele Nachrichten, wenige Treffer. KI dreht dieses Prinzip um. Statt generischer Köder entstehen Nachrichten, die aus Sicht der Empfänger perfekt passen. Sei es im Stil der Organisation, im Ton der Abteilung oder in der Logik des Projekts.
Dadurch wird Social Engineering individueller, glaubwürdiger und schwerer zu erkennen. Ein gut gemimter Chatverlauf, eine präzise formulierte Rückfrage, eine scheinbar harmlose Datei, all das kann wirken, als käme es von Kolleginnen und Kollegen.
Die Angriffe werden damit weniger sichtbar und gleichzeitig raffinierter. Unternehmen müssen sich darauf einstellen, dass KI Phishing nicht wie ein externer Angriff wirkt, sondern wie eine interne Kommunikation, die Dinge plausibel weiterführt.
Gemeinsam haben diese Szenarien eines: KI verwandelt externe Angriffe und interne Fehler in hybride Risiken, die sich innerhalb der Organisation tarnen. So wird KI selbst zum „Komplizen“. Nicht, weil sie böswillig wäre, sondern weil sie Fähigkeiten bereitstellt, die Angreifer und unwissende Mitarbeitende gleichermaßen nutzen können.
Gleichzeitig eröffnet KI natürlich auch neue Möglichkeiten auf der Verteidigungsseite: Sicherheitsplattformen nutzen maschinelles Lernen zunehmend, um ungewöhnliche Nutzeraktivitäten, verdächtige Zugriffsmuster oder Datenbewegungen frühzeitig zu erkennen und Insider-Risiken schneller sichtbar zu machen.
Die neuen Insider Risiken lassen sich nicht allein durch mehr Technologie eindämmen. KI hat gezeigt, dass sich Bedrohungen nicht mehr sauber zwischen intern und extern, absichtlich und unabsichtlich trennen lassen. Was es braucht, ist eine Kombination aus Governance, Kultur und Technologie. In dieser Reihenfolge.
Governance wirkt auf den ersten Blick wie ein formaler Prozess, doch in der Praxis ist sie die Grundlage jeder KI Sicherheitsstrategie. Es geht weniger darum, Regeln zu verschärfen, sondern darum, Orientierung zu geben:
Unternehmen, die klare Leitplanken setzen, schaffen nicht nur Sicherheit, sondern auch Vertrauen. Mitarbeitende wissen, wie sie KI nutzen dürfen, ohne in eine Grauzone zu geraten. Und wichtig: Governance ist kein Kontrollinstrument, sondern ein Navigationssystem. Mitarbeitende sollen nicht vermeiden, KI einzusetzen. Sie sollen wissen, wie sie es sicher tun können.
Jährliche Schulungsfolien sind im Zeitalter von KI wirkungslos. KI gestützte Täuschungen sind zu vielseitig, zu realistisch und zu dynamisch. Setzen Sie daher auf:
Ziel ist es nicht, Mitarbeitende misstrauisch zu machen, sondern sie sensibel für Muster zu machen, die KI gestützte Angriffe erzeugen. Es geht weniger um Wissen, sondern um Intuition: das Gefühl, dass „irgendetwas nicht stimmt“, selbst wenn alles perfekt wirkt.
Technische Maßnahmen bleiben unverzichtbar, aber sie müssen anders gedacht werden: weniger als starre Mauern, mehr als dynamische Leitplanken. Wichtige Bausteine können an dieser Stelle sein:
KI ist nicht nur der Verursacher neuer Risiken, sondern auch die effektivste Antwort darauf. Mit ihren Möglichkeiten kann sie die neuen Bedrohungsszenarien direkt adressieren:
Ziel ist ein technisches Umfeld, in dem Mitarbeitende produktiv arbeiten können und in dem Fehlverhalten, Manipulation oder Täuschung nicht zur Katastrophe führen.
Prävention funktioniert nicht durch weitere Kontrollschichten, sondern durch ein Zusammenspiel: Governance gibt Orientierung. Awareness schafft Kompetenz. Technische Guardrails sichern den Alltag ab. So entsteht ein Umfeld, in dem KI nicht zum Risiko wird, sondern zu einem Werkzeug, das Unternehmen sicher und verantwortungsvoll einsetzen können.
Der Weg in die Zukunft von Security-Strategien liegt nicht unbedingt in komplexeren Sperrmechanismen, sondern eher in einem menschenzentrierten Sicherheitsmodell, das drei Elemente vereint:
Der Mensch bleibt die kritischste Sicherheitskomponente, aber seine KI ist inzwischen Teil dieser Gleichung. Resilienz entsteht dort, wo beides zusammengedacht wird: der Mensch mit seinen Stärken und Schwächen, und die Maschine mit ihren Fähigkeiten und Risiken.
Sicherheit im KI-Zeitalter bedeutet nicht mehr nur Kontrolle über Menschen, sondern die Gestaltung von Verantwortung – an vielen Stellen unterstützt durch Technologien, die den Menschen dort schützen, wo seine biologische Wahrnehmung an Grenzen stößt.
Risiken kündigen sich oft durch Verhaltensänderungen an: extremer Stress, Frustration oder ein plötzliches Interesse an Daten außerhalb des eigenen Bereichs. KI-Angriffe nutzen zudem den „Compliance-Reflex“ (Gehorsam gegenüber (Fake-)Vorgesetzten). Eine offene Sicherheitskultur, in der Unsicherheiten ohne Angst gemeldet werden können, ist hier der beste Schutz.