Die Geschwindigkeit, mit der die Entwicklung und Nutzung von KI-Systemen voranschreitet, sorgt auch bei Europol für Beunruhigung. Eine Studie der europäischen Behörde zeigt die neuen Herausforderungen.
KI-Systeme wie Chat-GPT gelten aktuell als Topthema. Bald nach Verfügbarkeit des Systems sind Hackergruppen auf die Idee gekommen, ausgefeilte Malware per KI erstellen zu lassen. Fragen wie: Schreib mir eine Software, die Sicherheitslücken der Firewall X ausnutzt und sich in einem Microsoft-System Permanenz verschafft sowie per Remote Access erreichbar ist, führten tatsächlich zu gewünschten Ergebnissen. Denn ChatGPT kann auch Code in verschiedenen Programmiersprachen erzeugen. Für Angreifer mit geringen technischen Kenntnissen ist dies eine wertvolle Hilfe, Schadcode zu erzeugen.
Doch das System kann mehr. Jedermann kann mit ChatGPT schnell und einfach Resultate erzielen. Das KI-System liefert selbst bei komplexen Fragen verständliche Ergebnisse. Dabei scheinen den Einsatzgebieten kaum Grenzen gesetzt. Juristische Fragen werden ebenso damit erarbeitet wie medizinische Diagnosen oder künstlerische Objekte.
Kriminologen sind besorgt
Dahinter steckt ein sogenanntes großes Sprachmodell (Large Language Modell, LLM). Das ist ein umfangreiches neuronales Netzwerk, das durch selbstüberwachtes Lernen mit großen Textmengen aus dem Internet trainiert wurde. Heraus kommt unter anderem ein statistisches Modell, das beschreibt, wie wahrscheinlich ein bestimmter Satz in einem Kontext ist. Es kann menschliche Eingaben verstehen und auf natürlich klingende Weise darauf antworten.
Die umfangreichen Fähigkeiten bringen vielfältige Einsatzmöglichkeiten mit sich, was Kriminologen durchaus Sorge bereitet. Deshalb hat sich nun auch die europäische Polizeibehörde Europol mit den Konsequenzen beschäftigt und eine
Studie für Strafverfolgungsbehörden erstellt. In gekürzter Fassung ist sie öffentlich verfügbar. Die Studie ist das Resultat einer Reihe von Workshops mit Fachexperten aus ganz Europol, um zu untersuchen, wie Kriminelle große Sprachmodelle (LLM) wie ChatGPT missbrauchen können und wie diese Ermittlern bei ihrer täglichen Arbeit helfen kann.
Zukünftig immer raffiniertere Betrugsformen
ChatGPT besitzt die Fähigkeit, sehr realistische und authentische Texte zu verfassen. Europol sieht daher große Potenziale bei Phishing-Attacken. Damit erstellte Phishing-Mails können leichter auf Zielgruppen oder -personen angepasst werden und sind somit für Cyber-Verbrecher erfolgversprechender. Mit der Fähigkeit Sprachmuster nachzubilden, lassen sich Sprachstile bestimmter Personen oder Gruppen einfach imitieren. Sobald der KI-Software ein kleines Muster eines bestimmten Stils eingespeist wird, kann sie diesen leicht nachahmen und in weiteren Nachrichten verwenden. So lassen sich beispielsweise überzeugend gefälschte E-Mails erstellen, die scheinbar von einem echten Mitarbeiter stammen. Diese Eigenschaft kann in großem Umfang missbraucht werden, weil damit potenzielle Opfer sehr viel wahrscheinlicher kriminellen Akteuren vertrauen könnten, warnt Europol. Durch die Generierung passender Kontexte werden Cybercrime-Formen wie CEO-Fraud deutlich einfacher und zukünftig sehr wahrscheinlich raffinierter ausfallen.
Europol macht auf eine weitere Möglichkeit aufmerksam: Für Kriminelle ohne Fachkenntnisse zu spezifischen Verbrechensgebieten bietet ChatGPT ein ideales Recherchewerkzeug. Es kann schnell konzentrierte Schlüsselinformationen liefern, die dann in den folgenden Schritten weiterverwendet werden können. Somit können ohne Vorkenntnisse Informationen über eine große Anzahl potenzieller Verbrechensbereiche in Erfahrung gebracht werden, „angefangen von Einbrüchen bis zu sexuellem Missbrauch“ und natürlich Cybercrime, schreibt Europol. Die vielfältigen Einsatzmöglichkeiten können derzeit lediglich einen Eindruck davon vermitteln, „wie vielfältig und potenziell gefährlich LLM wie ChatGPT in den Händen von böswilligen Akteuren sein können“, warnt Europol. Die Experten rechnen zukünftig mit zahlreichen neuen Verbrechensvarianten, die Cybercrime-Spezialisten vor ganz neue Herausforderungen stellen werden.
Künstliche Intelligenz verspricht auch Hilfe für Cybersicherheitsexperten
Während die Angreifer im fortwährenden Katz-und-Maus-Spiel bereits wieder einen Schritt voraus sind,
bleibt zu hoffen, dass Chat GPT & Co. auch den Verteidigern Unterstützung bietet.