NYCs Ampelregeln für KI in Schulen: Was DACH lernen kann

New York City regelt KI in Schulen mit Ampelfarben: Rot für Noten, Gelb für Übersetzung, Grün für Stundenplanung. Ein Vergleich mit der KMK-Empfehlung.

Während die Kultusministerkonferenz im Oktober 2025 ihre Handlungsempfehlungen zu KI in Schulen veröffentlicht hat — bewusst „konstruktiv-kritisch" formuliert, ohne harte Verbote — geht New Yorks Schulbehörde den entgegengesetzten Weg: eine Ampel mit klaren Listen, was rot, gelb und grün ist. Am 8. Mai endet die öffentliche Kommentierungsfrist; im Juni kommt das endgültige Regelwerk.

Für Lehrkräfte, Schulleitungen und Bildungspolitiker in DACH lohnt der Blick darüber. Drei der NYC-Listen kollidieren direkt mit der gelebten Praxis an deutschen Schulen — und mindestens eine Kategorie hat die KMK in Deutschland bisher gar nicht klar geregelt.

NYCs Ampel im Klartext

Am 24. März 2026 hat das NYC Department of Education für 78.000 Lehrkräfte verbindliche Vorgaben veröffentlicht.

🔴 Rot — niemals, ohne Ausnahmen

Verbotene KI-AnwendungWas das bedeutet
Notengebung und Bewertung„Die unterrichtende Lehrkraft entscheidet, was eine Schülerin weiß. KI-generierte Daten sind nur beratend."
IEP-Pläne und 504-Anpassungen (Förderpläne)Ausschließlich qualifizierte Fachkräfte
DisziplinarentscheidungenKeine algorithmische Vorsortierung
Beratung, Krisenintervention, TherapieAusschließlich qualifizierte Fachkräfte
Verhaltens- und AnwesenheitsüberwachungKein Surveillance-Setup
Algorithmische Versetzungs- oder SchullaufbahnentscheidungenMüssen von Lehrkräften überschreibbar bleiben

🟡 Gelb — nur mit Fachprüfung

  • Mustererkennung in Schüler:innendaten — Lehrkraft interpretiert
  • Übersetzung wichtiger Elternkorrespondenz — vor Versand fachlich geprüft
  • Adaptionen für mehrsprachige Lernende — durch DaZ-Fachkraft überprüft
  • Schüler:innennutzung von KI für Recherche und Kreativprojekte — pädagogische Begleitung erforderlich

🟢 Grün — explizit erlaubt

  • Brainstorming, Stundenplanung, Unterrichtsentwürfe
  • Entwürfe für nicht-sensible Korrespondenz
  • Übersetzung nicht-kritischer Schul-Informationen
  • Operative Datensynthese (Stundenpläne, Ressourcenplanung)
  • Eigene Fortbildung und Recherche

Vollständige Verordnung — NYC Department of Education

Was die KMK in Deutschland sagt — und wo die Lücke ist

Die KMK-Handlungsempfehlung (fobizz Übersicht) deckt fünf Themenfelder ab: Didaktik, Prüfungen, Lehrerbildung, Regulierung und Chancengerechtigkeit. Der Rechtsrahmen verweist explizit auf den EU AI Act und die DSGVO. Die föderalen Vorhaben (VIDIS, eduCheck, AIS) sollen einheitliche Standards für KI-Anwendungen schaffen (the decoder).

Was fehlt — verglichen mit NYCs Ampel:

Eine konkrete Negativliste. Die KMK empfiehlt, Risiken zu sensibilisieren. NYC zählt sie auf und benennt sie als Verbote: KI darf keine IEPs entwerfen, keine Noten setzen, keine Disziplinarentscheidungen treffen. Eine vergleichbare Klarheit auf Bundeslandebene gibt es bisher nur in Ansätzen — Baden-Württemberg ist mit seinen Hinweisen am weitesten (KM BW), aber auch dort steht „Verbot" nicht prominent.

Ein öffentliches Tool-Inventar. NYC verlangt, dass eingesetzte KI-Tools über das ERMA-Verfahren freigegeben sind — die Liste ist allerdings selbst Kritik der Datenschutzaktivisten, weil sie nicht öffentlich ist. In Deutschland ist die Lage ähnlich: VIDIS und eduCheck sollen Standards setzen, aber die konkrete Liste der zugelassenen Tools ist noch im Aufbau.

Eine Frist für Stellungnahmen aus dem Lehrerzimmer. NYCs 45-Tage-Kommentierungsfenster zwingt Lehrkräfte, Eltern und Schulleitungen, sich öffentlich zu positionieren. Die KMK arbeitet hinter verschlossenen Türen mit Verbänden und Wissenschaft — Lehrkräfte als Profession kommen erst in der Implementierung über die Bundesländer ins Spiel.

Die drei Praxiskonflikte, die DACH heute schon betreffen

1. KI-gestützte Förderpläne (rot bei NYC, ungeregelt in DACH). Sonderpädagog:innen drafte zunehmend Förderpläne mit KI-Unterstützung — als Erstentwurf, der dann manuell überarbeitet wird. NYC verbietet das ausdrücklich. Die KMK schweigt dazu. Wenn deine Schule oder dein Bundesland eine ähnliche Linie zieht, sollte das vor der nächsten Förderkonferenz mit der Schulleitung besprochen sein — nicht danach.

2. KI-Übersetzungen für Elternbriefe (gelb bei NYC, Praxis in DACH). Wer hat in den letzten sechs Monaten einen Elternbrief mit DeepL oder ChatGPT ins Türkische, Arabische oder Ukrainische übersetzt und ohne fachliche Gegenprüfung verschickt? NYC verlangt eine zertifizierte Fachkraft als Reviewerin. Schulen ohne Sprachmittler stehen vor einem Kapazitätsproblem — aber die Anforderung ist begründet (Falschübersetzungen bei rechtlich relevanten Schreiben sind dokumentiert).

3. KI-gestützte Noten- und Klausurprüfung (rot bei NYC, gemischt in DACH). Tools wie fobizz und ähnliche bieten Bewertungsassistenz. NYC verbietet jegliche KI-generierte Note. In DACH ist die Empfehlung weicher: KI darf assistieren, die Lehrkraft entscheidet. Wo verläuft in der Praxis die Grenze, wenn der KI-Vorschlag als „Anker" dient? Eine offene Frage.

Was du als Lehrkraft, Schulleitung oder Bundesland-Verantwortliche tun kannst

Wenn du Lehrkraft in DACH bist: Lies die NYC-Verordnung als Checkliste, nicht als Regelwerk. Welche der NYC-Roten machst du heute? Was würdest du verteidigen, was würdest du ändern? Notiere drei Punkte — die landen entweder im persönlichen Workflow oder im nächsten Pädagogischen Tag.

Wenn du Schulleitung bist: Plan eine 30-Minuten-Konferenz „Welche KI-Tools nutzen wir wofür". Die meisten Schulleitungen wissen nicht, welche Tools im Kollegium aktiv sind. Eine Liste ist die Grundlage für jede spätere Diskussion.

Wenn du im Kultusministerium oder einer Landesfortbildung arbeitest: Die NYC-Vorlage liefert eine sofort übertragbare Tabellenstruktur. Die Übertragung auf die KMK-Handlungsempfehlung — Rot/Gelb/Grün statt „konstruktiv-kritisch begleiten" — würde Lehrkräften die operative Klarheit geben, die ihnen heute fehlt.

Wenn du Eltern bist: Schau, ob deine Schule ein Datenschutzkonzept zu KI hat. Falls nicht, frag den Förderverein oder die Schulpflegschaft. Der EU AI Act verpflichtet ab Februar 2026 Schulen zu einer Risikobewertung für hochrisikobehaftete KI-Systeme — und Bildung ist als Hochrisiko klassifiziert.

Was die NYC-Vorlage nicht löst

NYCs Ampel hat Lücken, die das Department selbst benennt: Klassenstufen-spezifische Differenzierung (K-5 vs. 6-8 vs. 9-12 fehlt), Bias-Bewertung für KI-Tools (im Aufbau), das öffentliche Tool-Inventar (nicht veröffentlicht), Hausaufgaben-Integrität (in Arbeit). Die KMK hat dieselben Lücken — und löst sie föderal langsamer.

Der wertvolle Teil von NYCs Modell ist nicht die Strenge, sondern die explizite Aufzählung. Wer eine Liste hat, kann sie debattieren, anpassen und durchsetzen. Wer „konstruktiv-kritisch begleitet", verlagert die Verantwortung auf jede einzelne Lehrkraft — und auf jede einzelne Schulleitung, die sich allein durch DSGVO, AI Act und Schulrecht arbeiten muss.

Fazit

NYCs Frist endet am 8. Mai. In DACH gibt es keine vergleichbare Frist — aber jede Bundesland-Initiative zur Konkretisierung der KMK-Empfehlung ist ein Hebel. Wenn deine Schule, deine Bezirksregierung oder dein Kultusministerium ein KI-Konzept entwickelt, ist die NYC-Tabelle die kürzeste sinnvolle Vorlage, die es derzeit auf Englisch gibt.

Für eine fundierte Einführung in den verantwortungsvollen Einsatz von KI in der Bildung: KI-Grundlagen als Basis und ChatGPT-Meisterkurs für die Anwendung im Schulalltag.


Quellen

Echte KI-Skills aufbauen

Schritt-für-Schritt-Kurse mit Quizzes und Zertifikaten für den Lebenslauf