Die KI Nutzung steigt und ist im Job kaum noch wegzudenken. Doch durch leichtgläubige und sorglose Nutzung steigen gleichzeitig die Gefahren wie Datenlecks. Mit entsprechenden Awareness-Maßnahmen kann gegengesteuert werden.
Der Einsatz von KI nimmt zu, doch die damit einhergehenden Gefahren werden oft nicht erkannt. In der Folge werden Ergebnisse häufig ungeprüft übernommen. Dadurch schleichen sich Fehler ein. Wenn dann auch noch Firmengeheimnisse oder vertrauliche Daten in die KI eingegeben werden, kann das für ein Unternehmen massive Konsequenzen haben. Abhilfe schaffen KI-spezifische Awareness-Maßnahmen.
Fast die Hälfte der Erwerbstätigen, 45 Prozent, nutzt Künstliche Intelligenz (KI) im Job, Tendenz steigend. Das ergab eine Studie des TÜV-Verbandes. Allerdings vertrauen viele von ihnen der KI blind und übernehmen Ergebnisse ungeprüft, wie diverse Studien zeigen. Nur bei rund einem Drittel der abhängig Beschäftigten existieren im Unternehmen konkrete Vorgaben für den Einsatz von KI. Mit 54 Prozent gibt mehr als die Hälfte der Beschäftigten an, dass weder Regeln noch Verbote bei der Verwendung von KI vorhanden sind. Ohne Regeln und Vorgaben sind Nutzer und Nutzerinnen auf sich gestellt. Es unterliegt dann auch ihrem eigenen Urteilsvermögen, zu entscheiden, ob Daten sensibel oder vertraulich sind. In der Folge werden sehr häufig sensible Daten in KI-Systeme eingegeben. Laut einer von HP und Microsoft veranlassten Studie betrifft das sogar rund 80 Prozent der Mitarbeiter. Dabei handelt es sich neben Firmengeheimnissen auch um personenbezogene Daten. Schnell entstehen so Datenlecks oder Datenschutzverstöße und auch Urheberrechtsprobleme. User wissen oftmals nicht, dass eingegebene Daten zu Trainingszwecken verwendet werden können. Unternehmen müssen dann damit rechnen, dass sich firmeninterne sensible Daten in KI-Ergebnissen wiederfinden.
KI nicht transparent und unzuverlässig
Doch die Verlässlichkeit der KI-Systeme ist weniger hoch, als allgemein angenommen wird. „ChatGPT, Gemini und andere Chatbots erfinden bis zu 40 Prozent ihrer Antworten und stellen sie als Fakten dar“, berichtet Tagesschau.de über eine Studie der Europäischen Rundfunkunion (EBU). Und das ist noch nicht alles: „Zum anderen gibt es echte Halluzinationen: Die KI reimt sich fehlende Informationen zusammen, indem sie statistisch plausible Wortketten generiert – auch wenn diese faktisch falsch sind“, heißt es in dem Bericht. Die Überprüfung der Ergebnisse wird dabei zusätzlich erschwert, denn die KI „erfindet dann mitunter sogar Quellen, die nicht existieren oder verknüpft Fakten, die nicht zusammengehören“. Das Ergebnis sei erschreckend, lautet das Fazit von Tagesschau.de, und weiter: „Viele Nutzer wissen gar nicht, dass Chatbots halluzinieren können. Sie gehen davon aus, dass die Technologie objektiv und faktentreu arbeitet - ein gefährlicher Irrglaube“. Anwender sehen in KI-Systemen häufig so etwas wie intelligente Suchmaschinen und messen diesen eine vergleichbare Verlässlichkeit bei. Für die meisten Menschen ist daher nicht transparent, dass KI-Modelle lediglich Berechnungen auf Basis riesiger, zumeist aus dem Internet stammender Textmengen vornehmen und nur abschätzen, welche Wörter wahrscheinlich zusammenpassen. Das passiert auf der Grundlage von Statistik; Sinn und Wahrheitsgehalt treten in den Hintergrund.
Daher empfiehlt auch die EBU ein paar Maßnahmen für die Nutzung von Chatbots. So sollten Nutzer und Nutzerinnen der KI niemals blind vertrauen und wichtige Informationen immer überprüfen. Bei der Arbeit mit Nachrichten und Fakten sollten sie auf etablierte Medien setzen, statt auf KI oder soziale Medien. „Als Faktenchecker oder Nachrichtenquelle taugen sie nicht, zumindest sollte sich niemand zu 100 Prozent darauf verlassen.“
Awareness-Maßnahmen unverzichtbar
Doch für den Einsatz von KI im Unternehmenskontext dürfte das nicht ausreichen. Hier werden Arbeitgeber um spezielle KI-Awareness nicht herumkommen. Inzwischen sind entsprechende Schulungsmaßnahmen auf dem Markt verfügbar, die meisten klassischen Anbieter von Security-Awareness haben diese in ihr Angebot aufgenommen. Die Inhalte können jedoch durchaus variieren und sollten gegebenenfalls in den Verhandlungen mit passenden Anbietern auf das Unternehmen abgestimmt werden.
Kernbestandteil derartiger Maßnahmen sollte auf jeden Fall die Vermittlung der KI-Grundlagen und -Funktionsweise sein, damit Anwender eine realistische Erwartungshaltung beim Einsatz von künstlicher Intelligenz entwickeln sowie Chancen und Grenzen erkennen. Dazu gehört auch die Vermittlung typischer Fehler der KI, wie etwa Halluzinationen oder Bias, also tendenzgerichtete Ergebnisse. Darüber hinaus sollten rechtliche Grundlagen zu Datenschutz und Urheberrecht sowie EU-AI-Act enthalten sein. Mitarbeiter und Mitarbeiterinnen können dadurch besser einschätzen, welche Daten als sensibel einzustufen sind. Im praktischen Teil sollten unbedingt verschiedene KI-Systeme eingesetzt werden. So können die Schulungsteilnehmer Unterschiede und Besonderheiten der verschiedenen Modelle erkennen und später das zur jeweiligen Fragestellung passende System auswählen.
Typischerweise werden Awareness-Maßnahmen in einen für alle Mitarbeiter relevanten Basisteil und in abteilungs- oder aufgabenspezifische Aufbaumodule untergliedert. Ein verantwortungsvoller Umgang mit KI-Systemen erfordert aber nicht nur die aufgeführten Kenntnisse, sondern auch entsprechende Richtlinien oder Leitlinien seitens des Unternehmens.
Quellen
Springer Professional: KI-Nutzung in Deutschland steigt deutlich an
TÜV-Verband: Fast jeder zweite Erwerbstätige nutzt Künstliche Intelligenz im Job
Smartcompany.com: 81% of employees confess to sharing confidential business info with free AI tools (in Englisch)
Washington Post: Why you shouldnt count on humans to prevent AI hiring bias (in Englisch)
BCG: BCG-Studie zeigt: Zwei Drittel der Deutschen nutzen KI am Arbeitsplatz
Bitkom: Beschäftigte nutzen vermehrt Schatten-KI
Tagesschau: KI erfindet jede dritte Antwort


