
Prompt Hacking: Anstiften, Verführen, Manipulieren – Sprachmodelle entblößt
Sprachmodelle (LLMs) gezielt durch Prompts (Eingaben) manipulieren, um Sicherheitsregeln zu umgehen und sensible Inhalte preiszugeben.
Themen
Awareness / Phishing / FraudTrendthemen
Wann & Wo
Einzelheiten
Format:
Technik-Vortrag
Language:
Deutsch
Session Beschreibung
In unserem Alltag nutzen wir immer häufiger Sprachmodelle – sei es in Chat-Funktionen beim Support oder in automatischen Anrufsystemen (ACD). Diese Modelle sollen einen bestimmten Zweck erfüllen und greifen dabei auch auf zum Teil sensible Daten zurück, zum Beispiel auf Verläufe, Verhalten, Prozesse und persönliche Daten.
Die Nutzung von Prompt Hacking (sog. Prompt Injection) stellt eine zunehmende Herausforderung im Umgang mit diesen modernen Sprachmodellen (LLMs) dar. Durch gezielte Manipulationen in Text- oder Spracheingaben können Angreifer das Verhalten oder die Antworten des Modells gezielt oder unbewusst beeinflussen.
Diese und weitere Angriffsmöglichkeiten sowie das Potenzial von Prompt Injection stellen wir im Vort ...
Die Nutzung von Prompt Hacking (sog. Prompt Injection) stellt eine zunehmende Herausforderung im Umgang mit diesen modernen Sprachmodellen (LLMs) dar. Durch gezielte Manipulationen in Text- oder Spracheingaben können Angreifer das Verhalten oder die Antworten des Modells gezielt oder unbewusst beeinflussen.
Diese und weitere Angriffsmöglichkeiten sowie das Potenzial von Prompt Injection stellen wir im Vort ...
Gesponsert von