Nachricht schreiben an

Sie haben keinen Betreff angegeben, möchten Sie die Nachricht ohne Betreff versenden?
Bitte beachten Sie, dass Ihre Nachricht maximal 1000 Zeichen lang sein darf
Sonderzeichen '<', '>' sind im Betreff und in der Nachricht nicht erlaubt
reCaptcha ist ungültig.
reCaptcha ist aufgrund eines Serverproblems gescheitert.

Ihre Nachricht wurde gesendet

Sie finden die Nachricht jetzt in Ihrem persönlichen Bereich unter „Meine Nachrichten“.

Es ist ein Fehler aufgetreten

Bitte versuchen Sie es nochmal.

Termin vereinbaren mit

Damit Sie einen Termin vereinbaren können, wird der Kalender auf dem persönlichen Profil Ihres Ansprechpartners in einem neuen Tab geöffnet.

Vor-Ort-Termin vereinbaren mit

Damit Sie einen Vor-Ort-Termin vereinbaren können, wird die Terminanfrage in einem neuen Tab geöffnet.

Roboterhand tippt auf Computer-Tastatur.
  • Branchennews
  • Management, Awareness und Compliance

ChatGPT: Risiko und Chance für Security-Admins und Ermittler

Eine Europol-Studie zeigt, dass Sicherheitsmechanismen von Chat GPT umgangen werden können. Die missbräuchliche Nutzung so genannter Large Language Models fördert Cybercrime in bisher ungeahntem Ausmaß. Strafverfolger und IT-Sicherheitsverantwortliche müssen sich darauf einstellen – und können sich Künstliche Intelligenz gleichzeitig selbst zu eigen machen.

Eine Studie von Europol zeigt, welche Chancen und Möglichkeiten KI-Systeme wie ChatGPT für Strafverfolgungsbehörden und Sicherheitsverantwortliche bieten.

ChatGPT steht momentan voll im Rampenlicht. Tägliche Neuigkeiten und permanent neue Anwendungsformen sorgen für ein außergewöhnliches mediales Interesse an KI-Systemen. Als Reaktion auf die massive öffentliche Aufmerksamkeit hat die europäische Polizeibehörde Europol eine Reihe von Workshops mit Fachexperten veranstaltet, deren Resultate in einer Studie mündeten. Sie ist leider nur für Strafverfolgungsbehörden einsehbar, eine gekürzte Fassung ist jedoch öffentlich verfügbar und liefert interessante Einblicke. Die Ermittler heben darin insbesondere die neuen Gefahren  hervor, die von ChatGPT ausgehen. Daneben sehen sie aber auch erhebliche Potenziale für Ermittler und Security-Verantwortliche.

Schon bald nachdem ChatGPT öffentlich nutzbar war, betraten Cyber-Kriminelle die Bühne und versuchten mithilfe der KI zum Beispiel Schad-Software zu erzeugen. OpenAI, die Firma hinter ChatGPT, hat darauf reagiert und eine Reihe von Sicherheitsfunktionen eingebaut, um eine böswillige Nutzung des Sprachmodells zu verhindern. So bewertet beispielsweise ein Mechanismus generierte Resultate am Ende daraufhin, ob der Inhalt sexistisch, hasserfüllt, gewalttätig oder selbstschädigend sein könnte und verweigert gegebenenfalls die Antwort.

Schutzmechanismen können umgangen werden

Allerdings warnt Europol: „Viele dieser Sicherheitsvorkehrungen lassen sich relativ leicht durch Prompt-Engineering umgehen“. Prompt-Engineering dient dazu, die Fragestellung an die Verarbeitungsweise natürlicher Sprache durch das KI-System anzupassen, um die erzeugte Antwort zu beeinflussen. Anders gesagt geht es um die Kunst der Fragestellung. Prompt-Engineering kann missbraucht werden, um die Beschränkungen der Content-Moderation zu umgehen und somit schädliche Inhalte zu produzieren. Wie das Nachrichtenmagazin „Der Spiegel“ aufzeigt, entwickelt sich Prompt-Engineering Infolgedessen gerade zu einem eigenen Berufsbild.

Während Entwickler und Hersteller von KI-Systemen häufig abwiegeln, dass die Systeme sich noch in einem relativ frühen Entwicklungsstadium befänden und im Zuge von Verbesserungen Schlupflöcher geschlossen würden, warnt Europol: „Angesichts der Komplexität dieser Modelle wird es keinen Mangel an von Forschern und Bedrohungsakteuren neu entdeckten oder entwickelten Umgehungsmöglichkeiten geben“. Als Beispiel nennt Europol die Möglichkeit, Problembegriffe durch harmlose Wörter zu ersetzen oder den Kontext zu ändern. Oder eine Antwort einzugeben und ChatGPT um die dazugehörige Frage zu bitten. Beispiel: Welche Frage führt zur Erzeugung einer Software für einen erfolgreichen Angriff gegen iPhones. Die Antwort darauf könnte als neue Frage verwendet werden und eventuell liegt danach eine neue Malware vor.

„Reduzieren wir ChatGPT auf das Wesentliche, wird das Sprachmodell basierend auf einem riesigen Korpus von Online-Texten trainiert, aus dem es sich „merkt“, welche Wörter, Sätze und Absätze am häufigsten kollokiert sind und wie sie miteinander in Verbindung stehen“, erläutert Europol. Zusätzlich optimieren viele technische Tricks und zusätzliches Training mit Menschen das Modell speziell für den Dialog. 

Unterstützung für Security-Spezialisten

Ermittler sollten sich dieser Fähigkeiten bewusst sein, können sie aber auch zu eigenen Zwecken einsetzen. Etwa zur Analyse von auffälligem Source- oder Maschinencode. IT-Forensiker und SOC-Mitarbeiter versuchen oftmals herauszufinden, was ein Programm macht und ob es schädlichen Code enthält. KI kann dabei ein wertvolles Hilfsmittel sein oder den Prozess beschleunigen. Ebenso kann KI eingesetzt werden, um gefährliche Fehler im Sourcecode einer Anwendung zu finden. Security-Spezialisten dürften in naher Zukunft weitere Einsatzformen finden, von denen sie sicherlich nicht alle öffentlich machen werden. Aber den Security-Spezialisten in Unternehmen kann schon damit geholfen sein, von Systemen wie ChatGPT Sicherheitstipps und -ratschläge generieren zu lassen oder Empfehlungen zum Umgang mit bestimmten Problemen zu erzeugen.

Europol weist darauf hin, dass nicht vergessen werden sollte, dass alle Informationen, die ChatGPT liefert, im Internet frei verfügbar sind. Kriminelle wären theoretisch also auch ohne KI in der Lage, an gewünschte Informationen zu gelangen. Allerdings vereinfacht die Möglichkeit, mit kontextbezogenen Fragen bestimmte Ergebnisse zu generieren, die noch dazu eine Zusammenfassung oder Korrelation verschiedener Quellen sein können, die Arbeit böswilliger Akteure erheblich.
 
close

Diese Inhalte oder Funktionen stehen der it-sa 365 Community zur Verfügung. 
Bitte registrieren Sie sich oder melden Sie sich mit Ihren Login-Daten an.