Lieferkette und Drittanbieter-Risiken
Cloud-KI-Anbieter, Open-Source-Modelle, Pre-Trained Models — Lieferkettenrisiken bei KI erkennen und steuern.
Premium-Kursinhalt
Diese Lektion gehört zu einem Premium-Kurs. Upgrade auf Pro, um alle Premium-Kurse und Inhalte freizuschalten.
- Zugang zu allen Premium-Kursen
- 1000+ KI-Skill-Vorlagen inklusive
- Jede Woche neue Inhalte
🔄 Kurzer Rueckblick: In Lektion 6 hast du das Vorfallmanagement kennengelernt — 6-Phasen-Modell und Meldepflichten. Jetzt schauen wir uns die Lieferkette an: Die Risiken, die mit deinen KI-Anbietern kommen.
Du hast dein ISMS erweitert, Schutzmassnahmen implementiert und einen Incident-Response-Plan. Aber was ist mit den Risiken, die du nicht kontrollierst — weil sie bei deinem KI-Anbieter liegen?
Die KI-Lieferkette ist laenger als du denkst
Ein typisches KI-System hat mehr Abhaengigkeiten als klassische Software:
| Schicht | Klassische Software | KI-System |
|---|---|---|
| Infrastruktur | Cloud-Provider (AWS, Azure) | Cloud-Provider |
| Framework | React, Django, Spring | + PyTorch, TensorFlow, LangChain |
| Daten | Datenbank | + Trainingsdaten, Labeling-Dienste |
| Modell | — | Pre-Trained Model, Fine-Tuning-Service |
| API | REST-API | + Model-API (OpenAI, Anthropic, Google) |
| Plugins/Tools | npm packages | + RAG-Datenquellen, Embedding-Services |
Jede Schicht ist ein potenzieller Angriffsvektor.
Risiko 1: Cloud-KI-Anbieter
Die meisten Unternehmen nutzen KI als Service — OpenAI, Azure AI, Google Vertex AI, Amazon Bedrock. Was bedeutet das fuer deine Sicherheit?
Geteilte Verantwortung (Shared Responsibility)
| Verantwortung | Anbieter | Du (Betreiber) |
|---|---|---|
| Modell-Training | ✅ | ❌ |
| Infrastruktur-Sicherheit | ✅ | ❌ |
| API-Verfuegbarkeit | ✅ | ❌ |
| Input-Validierung | ❌ | ✅ |
| Output-Filterung | ❌ | ✅ |
| Zugriffskontrolle | Teilweise | ✅ |
| Datenklassifizierung | ❌ | ✅ |
| Compliance (DSGVO, EU AI Act) | Teilweise | ✅ |
✅ Quick Check: Warum bist du als Betreiber fuer die Input-Validierung verantwortlich — nicht der API-Anbieter? (Tipp: Der Anbieter kennt deinen Kontext nicht. Er weiss nicht, welche Eingaben fuer dein System legitim sind und welche nicht.)
Anbieter-Assessment: 10 Prueffragen
| # | Frage | Warum wichtig |
|---|---|---|
| 1 | Wo werden Daten verarbeitet? | DSGVO: EU/EWR oder Drittland? |
| 2 | Werden Eingabedaten fuer Training verwendet? | Vertraulichkeit deiner Daten |
| 3 | Gibt es Modell-Pinning? | Kontrolle ueber Updates |
| 4 | Welche Zertifizierungen hat der Anbieter? | SOC 2, ISO 27001, ISO 42001 |
| 5 | Gibt es ein Audit-Recht? | Verifizierung der Sicherheit |
| 6 | Wie werden Sicherheitsvorfaelle gemeldet? | Deine Meldepflichten (72h) |
| 7 | Gibt es einen AVV (Auftragsverarbeitungsvertrag)? | DSGVO-Pflicht |
| 8 | Was passiert bei Vertragsende mit den Daten? | Datenportabilitaet, Loeschung |
| 9 | Wie ist die Exit-Strategie? | Vendor-Lock-in vermeiden |
| 10 | Gibt es SLAs fuer Sicherheit? | Nicht nur Verfuegbarkeit |
Risiko 2: Open-Source-Modelle
Open-Source-Modelle (Llama, Mistral, Mixtral, Stable Diffusion) sind beliebt — aber nicht automatisch sicher.
Spezifische Risiken
| Risiko | Beschreibung | Massnahme |
|---|---|---|
| Backdoors | Manipulierte Gewichte in Pre-Trained Models | Modell-Provenienz verifizieren, Hashes pruefen |
| Typosquatting | Gefaelschte Modellnamen auf Hugging Face | Nur offizielle Modelle von verifizierten Organisationen |
| Keine SLAs | Kein Patch-Zyklus, keine Sicherheits-Updates | Eigenes Patch-Management, Community-Monitoring |
| Trainingsdaten unklar | DSGVO-Risiko bei unbekannten Datenquellen | Data Cards pruefen, Provenienz dokumentieren |
| Lizenzen | Nicht alle „Open Source" Modelle sind tatsaechlich offen | Lizenz vor Einsatz pruefen (Apache 2.0, MIT, RAIL) |
Risiko 3: Unkontrollierte Modell-Updates
KI-Anbieter aktualisieren ihre Modelle regelmaessig. Das Problem: Ein Update kann dein System verschlechtern oder die Sicherheit beeintraechtigen.
Massnahmen:
- Modell-Pinning — Fixiere eine bestimmte Version (z.B.
gpt-4-0613) - Regressionstests — Automatisierte Tests bei jedem Modell-Update
- Staging-Umgebung — Neue Versionen erst in Staging testen
- Rollback-Strategie — Schneller Wechsel zur vorherigen Version
Lieferkettenrisiko-Matrix
| Risikoquelle | Eintrittswahrscheinlichkeit | Auswirkung | Massnahme |
|---|---|---|---|
| Cloud-KI-Anbieter aendert Terms of Service | Hoch | Mittel | Vertragliche Absicherung |
| Modell-Update verschlechtert Qualitaet | Hoch | Hoch | Modell-Pinning, Tests |
| Datenverarbeitung ausserhalb EU | Mittel | Hoch | AVV, Standardvertragsklauseln |
| Anbieter-Ausfall | Mittel | Hoch | Multi-Provider-Strategie |
| Backdoor in Open-Source-Modell | Niedrig | Sehr hoch | Provenienz, Integritaet |
| Anbieter stellt Modell ein | Mittel | Hoch | Exit-Strategie, Portabilitaet |
Key Takeaways
- Die KI-Lieferkette ist laenger als bei klassischer Software — sechs Schichten, jede ein Risiko
- Shared Responsibility: Der Anbieter sichert die Infrastruktur, du sicherst die Nutzung
- 10 Prueffragen fuer jeden KI-Anbieter — das Audit-Recht ist die wichtigste fehlende Klausel
- Open-Source-Modelle: Auditierbar heisst nicht auditiert — Provenienz und Integritaet pruefen
- Modell-Pinning schuetzt vor unkontrollierten Updates — nie die „latest"-Version in Produktion
Up Next
In der letzten Lektion bringst du alles zusammen: Dein KI-Sicherheitskonzept — mit Checkliste, Massnahmenplan und Praxis-Uebung.
Wissenscheck
Erst das Quiz oben abschließen
Lektion abgeschlossen!