Standardbild der it-sa 365

Prompt Hacking: Anstiften, Verführen, Manipulieren – Sprachmodelle entblößt

Sprachmodelle (LLMs) gezielt durch Prompts (Eingaben) manipulieren, um Sicherheitsregeln zu umgehen und sensible Inhalte preiszugeben.

Themen

Awareness / Phishing / FraudTrendthemen

Wann & Wo

calendar_month

Di., 07.10.2025, 17:00 - 17:30

location_on

Forum, Stand 9-103

Session als iCal herunterladendownload_for_offline

Einzelheiten

  • Format:

    Technik-Vortrag

  • Language:

    Deutsch

Session Beschreibung

In unserem Alltag nutzen wir immer häufiger Sprachmodelle – sei es in Chat-Funktionen beim Support oder in automatischen Anrufsystemen (ACD). Diese Modelle sollen einen bestimmten Zweck erfüllen und greifen dabei auch auf zum Teil sensible Daten zurück, zum Beispiel auf Verläufe, Verhalten, Prozesse und persönliche Daten.

Die Nutzung von Prompt Hacking (sog. Prompt Injection) stellt eine zunehmende Herausforderung im Umgang mit diesen modernen Sprachmodellen (LLMs) dar. Durch gezielte Manipulationen in Text- oder Spracheingaben können Angreifer das Verhalten oder die Antworten des Modells gezielt oder unbewusst beeinflussen.

Diese und weitere Angriffsmöglichkeiten sowie das Potenzial von Prompt Injection stellen wir im Vort ...
Gesponsert von

Moderator