DSFA fuer KI-Systeme
Erstelle eine Datenschutzfolgenabschaetzung fuer KI-Systeme — mit Vorlage, KI-spezifischen Risiken und Massnahmenplan.
Premium-Kursinhalt
Diese Lektion gehört zu einem Premium-Kurs. Upgrade auf Pro, um alle Premium-Kurse und Inhalte freizuschalten.
- Zugang zu allen Premium-Kursen
- 1000+ KI-Skill-Vorlagen inklusive
- Jede Woche neue Inhalte
🔄 Kurzer Rueckblick: In Lektion 4 hast du Hochrisiko-Szenarien aus Recruiting, Kreditvergabe, Bildung und Gesundheit durchgearbeitet. Jetzt lernst du das zentrale Werkzeug fuer den Datenschutz: die DSFA.
Die Datenschutzfolgenabschaetzung (DSFA) nach Art. 35 DSGVO ist bei KI-Systemen kein Nice-to-have — sie ist fast immer Pflicht, wenn personenbezogene Daten verarbeitet werden. Und bei KI bringt sie besondere Herausforderungen mit.
Wann braucht ein KI-System eine DSFA?
Die DSGVO verlangt eine DSFA, wenn eine Verarbeitung “voraussichtlich ein hohes Risiko” mit sich bringt. Fuer KI-Systeme gelten drei Ausloeser:
| Ausloeser | Rechtsgrundlage | Beispiel |
|---|---|---|
| Systematische Bewertung (Profiling) | Art. 35 Abs. 3 lit. a | KI-Scoring fuer Kreditentscheidung |
| Umfangreiche Verarbeitung besonderer Kategorien | Art. 35 Abs. 3 lit. b | Gesundheitsdaten-KI |
| Systematische Ueberwachung | Art. 35 Abs. 3 lit. c | KI-Videoueberwachung |
| DSK-Positivliste | DSK Muss-Liste | Scoring, Profiling, neue Technologien |
Faustregel: Wenn dein KI-System Hochrisiko nach EU AI Act ist, braucht es fast immer auch eine DSFA. Aber auch Nicht-Hochrisiko-KI kann eine DSFA erfordern — die Schwellen sind unterschiedlich.
✅ Quick Check: Ein KI-Chatbot beantwortet allgemeine Fragen zu Unternehmensleistungen — ohne personenbezogene Daten zu speichern. Braucht er eine DSFA? (Tipp: Welche Daten fliessen im Chat-Verlauf?)
Die 6 Schritte der KI-DSFA
Schritt 1: Beschreibung der Verarbeitung
Dokumentiere nicht nur was, sondern auch wie das KI-System funktioniert:
- Zweck: Wofuer wird das System eingesetzt?
- Datenfluss: Welche Daten fliessen ein, welche entstehen als Output?
- Rechtsgrundlage: Art. 6 Abs. 1 DSGVO — welche Grundlage?
- KI-spezifisch: Welches Modell? Cloud oder lokal? Wer hat Zugriff auf die Daten?
Schritt 2: Bewertung der Notwendigkeit und Verhaeltnismaessigkeit
- Ist KI hier ueberhaupt noetig, oder gibt es eine weniger eingreifende Alternative?
- Werden nur die Daten verarbeitet, die wirklich benoetigt werden (Datenminimierung)?
- Ist die Speicherdauer angemessen?
Schritt 3: Risikobewertung — Der KI-spezifische Kern
Hier wird die KI-DSFA anspruchsvoller als eine Standard-DSFA. Drei zusaetzliche Risikodimensionen:
Dimension 1: Erklaerbarkeit
| Frage | Risiko-Indikator |
|---|---|
| Kann das System seine Entscheidungen begruenden? | Black-Box-Modelle = hohes Risiko |
| Versteht der Nutzer, warum ein bestimmtes Ergebnis kam? | Fehlende Erklaerung = hohes Risiko |
| Gibt es einen Audit-Trail? | Keine Nachvollziehbarkeit = hohes Risiko |
Dimension 2: Bias und Diskriminierung
| Frage | Risiko-Indikator |
|---|---|
| Sind die Trainingsdaten repraesentativ? | Unterrepraesentation bestimmter Gruppen = hohes Risiko |
| Gibt es Proxy-Variablen fuer geschuetzte Merkmale? | Postleitzahl als Proxy fuer Ethnie = hohes Risiko |
| Wurde ein Bias-Audit durchgefuehrt? | Kein Audit = hohes Risiko |
Dimension 3: Dynamik und Veraenderung
| Frage | Risiko-Indikator |
|---|---|
| Lernt das System weiter (Nachtraining)? | Kontinuierliches Lernen = erhoehtes Risiko |
| Koennen Feedback-Loops das Verhalten aendern? | Unkontrollierte Loops = hohes Risiko |
| Wird das Modell regelmaessig aktualisiert? | Updates ohne Neubewertung = Risiko |
Schritt 4: Risikomatrix erstellen
Bewerte jedes identifizierte Risiko nach zwei Achsen:
| Schwere: Gering | Schwere: Mittel | Schwere: Hoch | |
|---|---|---|---|
| Eintritt: Hoch | Mittel | Hoch | Kritisch |
| Eintritt: Mittel | Gering | Mittel | Hoch |
| Eintritt: Gering | Gering | Gering | Mittel |
Alle Risiken ab “Hoch” erfordern Massnahmen vor der Inbetriebnahme.
Schritt 5: Massnahmen definieren
Fuer jedes hohe oder kritische Risiko eine konkrete Massnahme:
| Risiko | Massnahme | Verantwortlich | Frist |
|---|---|---|---|
| Black-Box-Entscheidungen | XAI-Modul (Explainable AI) einfordern | IT + Anbieter | Vor Go-live |
| Bias in Trainingsdaten | Bias-Audit mit Testdatensatz | Datenschutz + Fachabteilung | Vor Go-live |
| Unkontrolliertes Nachlernen | Modell-Updates nur nach Freigabe | KI-Beauftragter | Fortlaufend |
| Fehlender Audit-Trail | Protokollierung der Ein-/Ausgaben | IT | Vor Go-live |
Schritt 6: Dokumentation und Pruefung
- DSFA dokumentieren und archivieren
- Aufsichtsbehoerde konsultieren bei Restrisiko (Art. 36 DSGVO)
- Regelmaessige Aktualisierung bei Aenderungen am System
- Verknuepfung mit KI-Inventar und Risikoklassifizierung
Praxis-Vorlage: KI-DSFA
Erstelle eine DSFA fuer mein KI-System:
SYSTEM:
Name: [z.B. KI-Recruiting-Tool]
Anbieter: [Name]
Modelltyp: [z.B. Cloud-basiertes ML, LLM-basiert]
Verarbeitete Daten: [z.B. Lebenslaeufe, Bewerbungsschreiben]
Betroffene Personen: [z.B. Bewerber]
Verwendungszweck: [z.B. Vorauswahl von Bewerbungen]
Risikoklasse EU AI Act: [z.B. Hochrisiko, Anhang III Nr. 4]
ERSTELLE:
1. Verarbeitungsbeschreibung (Zweck, Datenfluss, Rechtsgrundlage)
2. Notwendigkeits- und Verhaeltnismaessigkeitspruefung
3. KI-spezifische Risikobewertung (Erklaerbarkeit, Bias, Dynamik)
4. Risikomatrix (Eintritt × Schwere)
5. Massnahmenplan mit Verantwortlichen und Fristen
6. Restrisiko-Bewertung und ggf. Konsultationsbedarf
Haeufige Fehler bei der KI-DSFA
Fehler 1: Standard-DSFA ohne KI-Anpassung. Eine Copy-Paste-DSFA ohne die drei KI-Dimensionen ist unvollstaendig. Die Aufsichtsbehoerde erkennt das.
Fehler 2: DSFA nur einmal erstellen. KI-Systeme veraendern sich — durch Updates, Nachtraining oder neue Datenquellen. Die DSFA muss mitwachsen.
Fehler 3: Anbieter-DSFA uebernehmen. Der Anbieter kennt seinen Service, aber nicht deinen Verwendungszweck. Deine DSFA muss deinen Kontext abbilden.
Fehler 4: Bias-Risiko ignorieren. “Unser Anbieter sagt, das Modell ist fair” reicht nicht. Du brauchst eigene Tests oder einen unabhaengigen Bias-Audit.
Key Takeaways
- DSFA-Pflicht kommt aus der DSGVO (Art. 35), nicht aus dem EU AI Act — aber beide Regelwerke greifen bei Hochrisiko-KI zusammen
- Drei KI-spezifische Dimensionen ergaenzen die Standard-DSFA: Erklaerbarkeit, Bias, Dynamik
- Risikomatrix: Eintrittswahrscheinlichkeit × Schwere — ab “Hoch” sind Massnahmen Pflicht
- Die DSFA ist ein lebendes Dokument — aktualisieren bei jedem System-Update
- Anbieter-Unterlagen ergaenzen, nicht ersetzen deine eigene DSFA
Up Next
In der naechsten Lektion geht es um konkrete Massnahmen zur Risikominderung: Was tust du, wenn die Risikobewertung “Hoch” ergibt?
Wissenscheck
Erst das Quiz oben abschließen
Lektion abgeschlossen!