Willkommen: Warum KI neue Sicherheitsrisiken schafft
Erfahre, warum KI-Systeme grundlegend andere Sicherheitsrisiken haben als klassische Software — und warum dein ISMS das noch nicht abdeckt.
Premium-Kursinhalt
Diese Lektion gehört zu einem Premium-Kurs. Upgrade auf Pro, um alle Premium-Kurse und Inhalte freizuschalten.
- Zugang zu allen Premium-Kursen
- 1000+ KI-Skill-Vorlagen inklusive
- Jede Woche neue Inhalte
Ein Mitarbeiter gibt vertrauliche Kundendaten in ChatGPT ein, um eine Praesentation zu erstellen. Ein Angreifer manipuliert die Eingabe eines KI-Recruiting-Tools, sodass bestimmte Bewerber bevorzugt werden. Ein Wettbewerber extrahiert das proprietaere KI-Modell einer Bank ueber die API.
Das sind keine hypothetischen Szenarien — sie passieren bereits. Und das klassische ISMS (Informationssicherheits-Managementsystem) deckt sie nicht ab.
Was du in diesem Kurs lernst
In 8 Lektionen meisterst du die Informationssicherheit fuer KI:
- Bedrohungslandschaft — Welche Angriffe es auf KI gibt und wer angreift
- KI-spezifische Risiken — Prompt Injection, Data Poisoning, Model Extraction
- Schutzmassnahmen — Technisch und organisatorisch
- ISMS-Integration — KI in ISO 27001 und ISO 42001 einbinden
- Vorfallmanagement — Wenn es doch passiert
- Lieferkette — Drittanbieter-Risiken bei Cloud-KI
Wie dieser Kurs funktioniert
Jede Lektion dauert 10-14 Minuten. Du bekommst Checklisten, Bedrohungsmatrizen und Massnahmenplaene, die du direkt auf deine KI-Systeme anwenden kannst.
Empfohlene Vorkenntnisse: Grundkenntnisse in IT-Sicherheit sind hilfreich. KI-Grundlagen (Kurs: “KI-Grundlagen”) und EU AI Act (Kurs: “EU AI Act — Was du wissen musst”) ergaenzen gut.
Warum dein ISMS KI nicht abdeckt
| Klassische IT-Sicherheit | KI-Sicherheit |
|---|---|
| Deterministische Bugs | Stochastische Schwachstellen |
| Angriffe auf Code und Infrastruktur | Angriffe auf Daten, Modell und Eingaben |
| Patch schliesst Luecke | Modell-Retrain noetig |
| Eindeutige Anomalie-Erkennung | Schwer erkennbare Manipulation |
| Statische Angriffsoberflaeche | Dynamische Angriffsoberflaeche |
✅ Quick Check: Warum hilft ein Patch-Management nicht gegen Data Poisoning? (Tipp: Data Poisoning greift die Trainingsdaten an, nicht den Code.)
Die drei KI-Angriffsvektoren
Jeder KI-Angriff nutzt einen von drei Vektoren:
| Vektor | Angriff | Beispiel |
|---|---|---|
| Eingabedaten | Prompt Injection, Adversarial Examples | Manipulierte Eingabe taeuscht KI |
| Trainingsdaten | Data Poisoning, Backdoor-Angriffe | Vergiftete Daten verzerren das Modell |
| Modell | Model Extraction, Model Inversion | Modell wird gestohlen oder ausgeforscht |
Die zwei groessten Fehler
Fehler 1: “Unser ISMS deckt KI ab.” Nein, tut es nicht. ISO 27001 kennt keine Prompt Injection, kein Data Poisoning und keine Model Extraction. Du brauchst eine KI-spezifische Erweiterung.
Fehler 2: “Der Anbieter kuemmert sich um die Sicherheit.” Der Anbieter sichert seine Infrastruktur. Du bist fuer die sichere Nutzung verantwortlich — Eingabevalidierung, Zugangssteuerung, Monitoring.
Key Takeaways
- KI-Sicherheit unterscheidet sich fundamental von klassischer IT-Sicherheit — drei neue Angriffsvektoren
- Der EU AI Act verlangt KI-spezifische Cybersicherheit (Art. 15) — nicht nur Patch-Management
- Drei Vektoren: Eingabedaten, Trainingsdaten, Modell — alle brauchen eigene Schutzmassnahmen
- Das klassische ISMS muss um KI-spezifische Controls erweitert werden
- Die Verantwortung liegt bei dir als Betreiber — nicht nur beim Anbieter
Up Next
In der naechsten Lektion schauen wir uns die Bedrohungslandschaft im Detail an: Wer greift KI an, mit welchen Methoden, und mit welchem Ziel?
Wissenscheck
Erst das Quiz oben abschließen
Lektion abgeschlossen!