Nachricht schreiben an

Sie haben keinen Betreff angegeben, möchten Sie die Nachricht ohne Betreff versenden?
Bitte beachten Sie, dass Ihre Nachricht maximal 1000 Zeichen lang sein darf
Sonderzeichen '<', '>' sind im Betreff und in der Nachricht nicht erlaubt

Ihre Nachricht wurde gesendet

Sie finden die Nachricht jetzt in Ihrem persönlichen Bereich unter „Meine Nachrichten“.

Es ist ein Fehler aufgetreten

Bitte versuchen Sie es nochmal.

Termin vereinbaren mit

Damit Sie einen Termin vereinbaren können, wird der Kalender auf dem persönlichen Profil Ihres Ansprechpartners in einem neuen Tab geöffnet.

Vor-Ort-Termin vereinbaren mit

Damit Sie einen Vor-Ort-Termin vereinbaren können, wird die Terminanfrage in einem neuen Tab geöffnet.

action image teaser hk2
IT Security Talks März 2023 Stream I

Datenschutzrechtliche und sicherheitstechnische Vorgaben für KI-Systeme

Auf Basis der gesetzlichen Anforderungen werden Angriffstypen und erforderliche Maßnahmen für KI-Systeme erläutert.

calendar_today Mi, 08.03.2023, 15:00 - 15:30

event_available Digital

Action Video

south_east

Actionbeschreibung

south_east

Speaker

south_east

Themen

Datenschutz / DSGVO Datensicherheit / DLP / Know-how-Schutz Gesetzgebung, Standards, Normen

Event

Diese Action ist Teil des Events IT Security Talks März 2023

Action Video

close

Dieses Video steht der it-sa 365 Community zur Verfügung. 
Bitte registrieren Sie sich oder melden Sie sich mit Ihren Login-Daten an.

Actionbeschreibung

Künstliche Intelligenz (KI) ist in aller Munde, auch beim Gesetzgeber und den Aufsichtsbehörden. Deshalb gibt es bereits eine Fülle rechtlicher Vorgaben, insbesondere aus dem Datenschutz oder zur Vermeidung von Diskriminierung. In sämtlichen Phasen eines KI-Systems vom Design bis zur Rückkopplung von Ergebnissen ist hinsichtlich aller Daten (z.B. Rohdaten, Trainingsdaten, Testdaten, Verifikationsdaten) jeweils durchzuspielen und zu dokumentieren, wie die rechtlichen Anforderungen eingehalten und Risiken vermieden werden. Beim hintereinandergeschalteten Deep Learning ist jedes Layer einzeln zu betrachten und zu bewerten. Gewährleistungsziele sind etwa Transparenz und Erklärbarkeit, Datenminimierung, Intervenierbarkeit, Verfügbarkeit, Integrität und Vertraulichkeit. Die Verantwortlichkeit muss ermittelt und kommuniziert werden. Insbesondere muss der Verantwortliche sicherstellen, dass die datenschutzrechtlichen Grundsätze (Art. 5 DSGVO) eingehalten werden und die Sicherheit der Verarbeitung (Art. 32 DSGVO) gewährleistet ist. KI-Systeme können in vielfältiger und teils nur schwer erkennbarer, vorhersehbarer oder beweisbarer Art und Weise Risiken Personen darstellen. Diese Risiken muss der Verantwortliche erkennen und dafür spezifische Maßnahmen definieren, implementieren und betreiben. Alles zusammen ist dann vom Verantwortlichen zu dokumentieren.
Bereits ganz zu Anfang während der Planung und Spezifikation der KI-Systeme ist zu prüfen, welche Ergebnisse als angemessen und korrekt gelten sollen. Der Zweck und die Erwartungen an das System sind eindeutig zu beschreiben. Die technischen und organisatorischen Maßnahmen sind festzulegen, insbesondere die jeweiligen Zugriffsrechte. Regelverstöße, Zweckdehnungen und Zweckverletzungen müssen im Betrieb festgestellt und dokumentiert werden. Es muss Möglichkeiten zum Eingreifen in die Verarbeitung geben, um sie ggf. zu stoppen. Im Zweifel muss auch Auskunft darüber erteilt werden können, wie Entscheidungen und Prognosen durch ein KI-System zustande gekommen sind. Sind die Roh- bzw. Trainingsdaten unzureichend oder fehlerbehaftet (sog. Bias), kann dies zu falschen Ergebnissen oder Diskriminierungen führen.
Von den datenschutzrechtlichen Aufsichtsbehörden (DSK) werden über 70 technische und organisatorische Maßnahmen für KI-Komponenten und KI-Systeme für die Phasen im Lebenszyklus einer KI empfohlen. Dieser Katalog ist eine geeignete Hilfestellung, um KI-Vorhaben zu strukturieren und zu überwachen. Die typischen Angriffstypen wie Evasion (falsches Ergebnis bei Nutzung der KI), Poisoning (manipulierende Daten beim KI-Training), Backdoor-Angriffe (Einführung von Schwachstellen beim KI-Training) sowie zur Extraction des KI-Modells, des Trainingsmusters oder einzelner Daten sind mit zu betrachten. Zur Prüfung der Widerstandsfähigkeit sind unterschiedliche Wissensstände des Angreifers und Angriffsvektoren im Blick zu behalten. Klassische Maßnahmen sind etwa die Pseudonymisierung, Anonymisierung, Verschlüsselung oder Verteilung von Daten über mehrere Systeme (sog. federated Learning).
Eine wichtige Dimension ist die Güte des KI-Systems. Bei unüberwachten Lernverfahren müssen die Ergebnisse regelmäßig durch Menschen nachträglich interpretiert oder geprüft werden, ggf. mittels eines Verifikationsmodells. Ansonsten kann man mittels Black-Box-Test synthetische Testdaten erzeugen, mit denen geprüft wird, welchen Einfluss die Eingabeparameter auf die Ausgabe der KI-Komponente haben.
Der Vortrag vermittelt einen Überblick und zeigt, was man als Checkliste verwenden kann.
... mehr lesen

Sprache: Deutsch

Action beinhaltet Q&A: Ja

Speaker

Mehr anzeigen
Merken Entfernen
close

Diese Inhalte oder Funktionen stehen der it-sa 365 Community zur Verfügung. 
Bitte registrieren Sie sich oder melden Sie sich mit Ihren Login-Daten an.