Nachricht schreiben an

Sie haben keinen Betreff angegeben, möchten Sie die Nachricht ohne Betreff versenden?
Bitte beachten Sie, dass Ihre Nachricht maximal 1000 Zeichen lang sein darf
Sonderzeichen '<', '>' sind im Betreff und in der Nachricht nicht erlaubt
reCaptcha ist ungültig.
reCaptcha ist aufgrund eines Serverproblems gescheitert.

Ihre Nachricht wurde gesendet

Sie finden die Nachricht jetzt in Ihrem persönlichen Bereich unter „Meine Nachrichten“.

Es ist ein Fehler aufgetreten

Bitte versuchen Sie es nochmal.

Termin vereinbaren mit

Damit Sie einen Termin vereinbaren können, wird der Kalender auf dem persönlichen Profil Ihres Ansprechpartners in einem neuen Tab geöffnet.

Vor-Ort-Termin vereinbaren mit

Damit Sie einen Vor-Ort-Termin vereinbaren können, wird die Terminanfrage in einem neuen Tab geöffnet.

Symbolbild: Menschliches Auge
  • Branchennews
  • Management, Awareness und Compliance
  • Künstliche Intelligenz (KI)

Schadcode und Phishing: Missbrauch von ChatGPT besorgt Europol

Während die Diskussion um ethisch-moralische Schranken und gesetzliche Regeln für den Einsatz von KI gerade erst begonnen hat, nutzen Cyberkriminelle die neuen Möglichkeiten von Chat GPT & Co. bereits schamlos aus. Die europäische Polizeibehörde Europol zeigt sich besorgt.

Die Geschwindigkeit, mit der die Entwicklung und Nutzung von KI-Systemen voranschreitet, sorgt auch bei Europol für Beunruhigung. Eine Studie der europäischen Behörde zeigt die neuen Herausforderungen.

KI-Systeme wie Chat-GPT gelten aktuell als Topthema. Bald nach Verfügbarkeit des Systems sind Hackergruppen auf die Idee gekommen, ausgefeilte Malware per KI erstellen zu lassen. Fragen wie: Schreib mir eine Software, die Sicherheitslücken der Firewall X ausnutzt und sich in einem Microsoft-System Permanenz verschafft sowie per Remote Access erreichbar ist, führten tatsächlich zu gewünschten Ergebnissen. Denn ChatGPT kann auch Code in verschiedenen Programmiersprachen erzeugen. Für Angreifer mit geringen technischen Kenntnissen ist dies eine wertvolle Hilfe, Schadcode zu erzeugen.

Doch das System kann mehr. Jedermann kann mit ChatGPT schnell und einfach Resultate erzielen. Das KI-System liefert selbst bei komplexen Fragen verständliche Ergebnisse. Dabei scheinen den Einsatzgebieten kaum Grenzen gesetzt. Juristische Fragen werden ebenso damit erarbeitet wie medizinische Diagnosen oder künstlerische Objekte.

Kriminologen sind besorgt

Dahinter steckt ein sogenanntes großes Sprachmodell (Large Language Modell, LLM). Das ist ein umfangreiches neuronales Netzwerk, das durch selbstüberwachtes Lernen mit großen Textmengen aus dem Internet trainiert wurde. Heraus kommt unter anderem ein statistisches Modell, das beschreibt, wie wahrscheinlich ein bestimmter Satz in einem Kontext ist. Es kann menschliche Eingaben verstehen und auf natürlich klingende Weise darauf antworten. 

Die umfangreichen Fähigkeiten bringen vielfältige Einsatzmöglichkeiten mit sich, was Kriminologen durchaus Sorge bereitet. Deshalb hat sich nun auch die europäische Polizeibehörde Europol mit den Konsequenzen beschäftigt und eine Studie für Strafverfolgungsbehörden erstellt. In gekürzter Fassung ist sie öffentlich verfügbar. Die Studie ist das Resultat einer Reihe von Workshops mit Fachexperten aus ganz Europol, um zu untersuchen, wie Kriminelle große Sprachmodelle (LLM) wie ChatGPT missbrauchen können und wie diese Ermittlern bei ihrer täglichen Arbeit helfen kann.

Zukünftig immer raffiniertere Betrugsformen

ChatGPT besitzt die Fähigkeit, sehr realistische und authentische Texte zu verfassen. Europol sieht daher große Potenziale bei Phishing-Attacken. Damit erstellte Phishing-Mails können leichter auf Zielgruppen oder -personen angepasst werden und sind somit für Cyber-Verbrecher erfolgversprechender. Mit der Fähigkeit Sprachmuster nachzubilden, lassen sich Sprachstile bestimmter Personen oder Gruppen einfach imitieren. Sobald der KI-Software ein kleines Muster eines bestimmten Stils eingespeist wird, kann sie diesen leicht nachahmen und in weiteren Nachrichten verwenden. So lassen sich beispielsweise überzeugend gefälschte E-Mails erstellen, die scheinbar von einem echten Mitarbeiter stammen. Diese Eigenschaft kann in großem Umfang missbraucht werden, weil damit potenzielle Opfer sehr viel wahrscheinlicher kriminellen Akteuren vertrauen könnten, warnt Europol. Durch die Generierung passender Kontexte werden Cybercrime-Formen wie CEO-Fraud deutlich einfacher und zukünftig sehr wahrscheinlich raffinierter ausfallen.

Europol macht auf eine weitere Möglichkeit aufmerksam: Für Kriminelle ohne Fachkenntnisse zu spezifischen Verbrechensgebieten bietet ChatGPT ein ideales Recherchewerkzeug. Es kann schnell konzentrierte Schlüsselinformationen liefern, die dann in den folgenden Schritten weiterverwendet werden können. Somit können ohne Vorkenntnisse Informationen über eine große Anzahl potenzieller Verbrechensbereiche in Erfahrung gebracht werden, „angefangen von Einbrüchen bis zu sexuellem Missbrauch“ und natürlich Cybercrime, schreibt Europol. Die vielfältigen Einsatzmöglichkeiten können derzeit lediglich einen Eindruck davon vermitteln, „wie vielfältig und potenziell gefährlich LLM wie ChatGPT in den Händen von böswilligen Akteuren sein können“, warnt Europol. Die Experten rechnen zukünftig mit zahlreichen neuen Verbrechensvarianten, die Cybercrime-Spezialisten vor ganz neue Herausforderungen stellen werden.

Künstliche Intelligenz verspricht auch Hilfe für Cybersicherheitsexperten

Während die Angreifer im fortwährenden Katz-und-Maus-Spiel bereits wieder einen Schritt voraus sind, bleibt zu hoffen, dass Chat GPT & Co. auch den Verteidigern Unterstützung bietet.
 
close

Diese Inhalte oder Funktionen stehen der it-sa 365 Community zur Verfügung. 
Bitte registrieren Sie sich oder melden Sie sich mit Ihren Login-Daten an.