NYC met des feux tricolores sur l'IA à l'école — leçon pour la France

New York interdit l'IA pour la notation et les PPS. Le cadre d'usage français de juin 2025 reste plus permissif. Comparatif pour enseignants et chefs d'établissement.

Pendant que la France a publié en juin 2025 son Cadre d’usage de l’IA en éducation sous l’impulsion d’Élisabeth Borne — un texte construit après une consultation territoriale de janvier à mai 2025 — le plus grand district scolaire des États-Unis a fait quelque chose que le ministère français n’a pas fait : transformer les principes en liste explicite de ce qui est autorisé, ce qui demande validation, et ce qui est interdit.

Vendredi 8 mai, la fenêtre de commentaires publics ferme. La politique définitive arrive en juin. Pour les enseignants, chefs d’établissement et décideurs en France et en francophonie, l’exercice mérite deux lectures : pour ce qu’il dit, et pour ce qu’il permet de comparer avec le cadre français.

Les feux tricolores new-yorkais, en une page

🔴 Rouge — interdit, sans exception

Usage IA interditImplication concrète
Notation et évaluation« L’enseignant·e décide ce que l’élève sait. Les données générées par IA ne sont qu’indicatives. »
PPS, PAP, PAI (équivalents français des IEP/504 plans)Personnels qualifiés uniquement
Décisions disciplinairesPas de pré-tri algorithmique
Conseil d’orientation, intervention en crise, soutien psychologiquePersonnels qualifiés uniquement
Surveillance comportementale, biométrique des élèvesInterdit
Parcours d’orientation algorithmiquesDoivent rester rectifiables par les enseignant·es

🟡 Jaune — uniquement avec validation pédagogique

  • Détection de motifs dans les données élèves — interprétation par l’enseignant·e
  • Traduction de communications critiques aux familles — relecture par un linguiste qualifié
  • Adaptations pour élèves en situation de handicap ou allophones — supervision par enseignant·e spécialisé·e

🟢 Vert — autorisé, encouragé, soutenu

  • Brainstorming, conception de séquences pédagogiques
  • Brouillons de communications non sensibles
  • Traduction d’informations scolaires non critiques (avec relecture humaine)
  • Synthèse opérationnelle (emplois du temps, ressources)
  • Formation continue et veille personnelles

Document complet — NYC DOE

Ce que la France a — et ce qui manque

Le Cadre d’usage de l’IA en éducation publié par le ministère français en juin 2025 (Éducation nationale) pose un principe permissif et encadré : « L’usage de l’IA est autorisé en éducation dès lors qu’il respecte le cadre défini. » Le cadre s’appuie sur le RGPD et le Règlement européen sur l’IA (AI Act), où l’éducation entre comme secteur à risque élevé depuis février 2026.

Les autorisations explicites :

  • IA générative en classe à partir de la 4e, encadrée par l’enseignant·e
  • IA générative en autonomie au lycée, dans un cadre d’apprentissage explicitement défini par l’enseignant·e
  • Programme Pix IA obligatoire à compter de la rentrée 2026 pour les élèves de 4e, 2nde et 1re année de CAP

Ce qui manque — comparé à NYC : la liste rouge concrète. Le cadre français autorise sous conditions ; NYC énumère les interdictions. Conséquence pratique : un enseignant spécialisé qui voudrait esquisser un PPS avec ChatGPT ne trouvera pas d’interdiction explicite dans le cadre français — mais c’est précisément le type d’usage que NYC nomme rouge sans ambiguïté.

Les trois conflits pratiques qui touchent déjà la France

1. Esquisser un PPS / PAP avec l’IA (rouge à NYC, gris en France). Les enseignants spécialisés et les coordonnateurs MDPH commencent à utiliser ChatGPT pour rédiger un premier jet de Projet Personnalisé de Scolarisation, qu’ils retravaillent ensuite. NYC l’interdit catégoriquement. Le Cadre d’usage français reste flou. Mais le RGPD (données de santé = catégorie particulière) et l’AI Act (éducation = risque élevé) imposent une vigilance que la pratique du terrain n’a pas encore intégrée.

2. Traduire les courriers aux familles avec DeepL ou ChatGPT (jaune à NYC, courant en France). As-tu traduit un mot aux familles en arabe, en ukrainien, en mandarin ou en bambara ces six derniers mois avec un outil IA ? NYC exige une relecture par traducteur qualifié avant envoi. La plupart des établissements n’ont pas de poste de traducteur — l’EMAS (équipe mobile d’appui à la scolarisation) peut être sollicitée, mais le délai est rarement compatible avec la communication courante. C’est une contrainte réelle.

3. Assistance à la notation par IA (rouge à NYC, mixte en France). Des outils français comme Magisterr ou les assistants pédagogiques émergents proposent une aide à la correction. NYC interdit toute note générée par IA. La frontière opérationnelle est : si l’enseignant·e ne peut pas défendre la note sans la sortie de l’IA, c’est l’IA qui a noté. La règle française “l’enseignant·e décide” repose sur cette même logique mais sans l’expliciter.

Ce que tu peux faire maintenant

Si tu es enseignant·e en France ou en Belgique : Utilise la liste de NYC comme grille personnelle. Lesquels des rouges fais-tu aujourd’hui ? Quels usages défendrais-tu, lesquels changerais-tu ? Deux des rouges (PPS et notation) demanderont probablement une évolution de pratique avant que l’institution ne le demande.

Si tu es chef d’établissement ou IEN : Convoque une demi-heure en conseil pédagogique : “Quels outils d’IA utilisons-nous, pour quoi faire ?” La majorité des chefs d’établissement ne le savent pas. La liste est la base de toute discussion ultérieure avec le DSDEN, le rectorat ou le DPO académique.

Si tu travailles à un rectorat ou à la DNE (Direction du Numérique pour l’Éducation) : La structure tabulaire de NYC (rouge / jaune / vert + colonne “réglementation applicable”) est directement transposable. Adapter cette structure au Cadre d’usage français — en remplissant la colonne “réglementation” par RGPD, AI Act, Code de l’éducation — donnerait aux enseignants la clarté opérationnelle qui leur manque aujourd’hui.

Si tu es parent d’élève : Demande à l’établissement s’il a une politique IA. Si la réponse est “on attend que le rectorat précise”, c’est exactement la brèche que NYC vient de combler — et que la France doit combler à son tour.

Les limites du modèle NYC

NYC reconnaît des trous : différenciation par niveau (cycle 2 / 3 / 4 / lycée — manquante), évaluation des biais algorithmiques des outils (en construction), inventaire public des outils autorisés (pas encore publié), intégrité académique des devoirs (en cours). Le Cadre français a les mêmes trous — et avance plus lentement.

La valeur du modèle NYC n’est pas la sévérité. C’est l’énumération explicite. Une liste se débat, s’ajuste, s’applique. Une orientation abstraite délègue la responsabilité sur chaque enseignant·e, qui se retrouve seul·e face au RGPD, à l’AI Act et au Code de l’éducation.

Pour conclure

La fenêtre de commentaires de NYC ferme vendredi. La France n’a pas d’équivalent — mais chaque initiative académique ou rectorale est un levier. Si ton établissement, ton académie ou ta région développe un cadre IA, la grille de NYC est le modèle le plus concret existant en anglais et il se traduit sans perte.

Pour une formation pédagogique solide à l’usage responsable de l’IA, IA pour enseignants couvre les usages quotidiens. Éthique de l’IA complète sur le cadre RGPD et AI Act européen.


Sources

Développe de Vraies Compétences IA

Cours pas à pas avec quiz et certificats pour ton CV