Header von Qevlar AI

The limits of stochastic intelligence: building trustworthy AI SOC Analysts

Die Unvorhersehbarkeit großer Sprachmodelle (LLMs) behindert deren Einführung in SOCs. Die Orchestrierung grafischer künstlicher Intelligenz gewährleistet Konsistenz und Rückverfolgbarkeit für LLM-Modelle.

Themen

Endpoint ProtectionManaged Security Services / HostingSIEM Threat Analytics SOC

Wann & Wo

calendar_month

Mi., 08.10.2025, 16:48 - 17:00

location_on

Forum, Stand 6-216

Session als iCal herunterladendownload_for_offline

Einzelheiten

  • Format:

    Technik-Vortrag

  • Language:

    Englisch

Session Beschreibung

LLMs werden in Security Operations Centers (SOCs) eingesetzt, meist als Co-Piloten, um Warnmeldungen zusammenzufassen, Protokolle abzufragen oder Berichte zu erstellen. Bei der Verwendung für End-to-End-Untersuchungen werden ihre grundlegenden Einschränkungen jedoch zu Hindernissen: variable Antworten, Halluzinationen und mangelnde Rückverfolgbarkeit.

Diese Sitzung beginnt mit einem konkreten Beispiel. Wir lassen denselben Alarm mehrmals durch einen LLM-SOC-Analysten laufen und beobachten dessen Ergebnisse: inkonsistent. Dies ist kein Fehler, sondern eine Eigenschaft generativer Modelle: Sie sind probabilistisch und nicht deterministisch. Das macht sie für risikoreiche Arbeitsabläufe wie Triage oder Korrelation unzuverlässig.

Um dieses Problem zu lösen, stellen wir eine hybr ...

Gesponsert von

Moderator