Lundi 5 mai, Greenhouse — la plateforme de tracking de candidats que beaucoup de DRH françaises connaissent à travers les filiales de groupes US ou les ETI internationales — a annoncé l’accord définitif pour racheter Ezra AI Labs, une start-up d’entretien d’embauche par voix IA. Ezra appelle les candidats au téléphone, conduit un entretien structuré contre une grille d’évaluation spécifique au poste, et renvoie transcription et score dans l’ATS. Deux jours plus tard, le 7 mai, Greenhouse a annoncé séparément Greenhouse MCP — une couche de gouvernance pour les flux IA, qui sort en juin 2026.
Pour les équipes RH françaises, la vraie histoire n’est cependant pas le rachat américain. C’est le 2 août 2026.
Ce jour-là, le régime des systèmes d’IA à haut risque du Règlement européen sur l’IA (AI Act) entre en application contraignante — et l’Annexe III classe explicitement les systèmes d’IA utilisés en recrutement et sélection comme à haut risque. Les entretiens par voix IA tombent exactement dans cette catégorie. Les amendes peuvent atteindre 35 millions d’euros ou 7 % du chiffre d’affaires mondial.
À cela s’ajoute une couche purement française. La CNIL, désignée autorité compétente pour la mise en application de l’AI Act en France, a classé le recrutement comme zone de contrôle prioritaire pour 2026 — avec un focus annoncé sur les algorithmes de tri de CV, l’information des candidats et les durées de conservation des données. Les “IA émotionnelles” capables d’analyser le ton de voix ou les expressions faciales sont particulièrement signalées par la CNIL comme à risques éthiques majeurs : imprécision technique, biais culturels, possibilité d’assimilation à de la surveillance.
Traduction pour une DRH dans une PME de 50 à 500 salariés en France : les entretiens par voix IA passent en T3 2026 d’expérimentation à outil de premier tour par défaut. Si ton équipe va en activer un — Ezra après le closing Greenhouse, HireVue, Paradox Olivia, BrightHire ou un éditeur français — il y a un travail qui doit être fait avant le premier appel au premier candidat.
Tu auditees quatre choses et tu rédiges une politique d’une page. Trente à quarante-cinq minutes. Bouclé pour mardi.
Ce qui a bougé ces deux dernières semaines
Trois changements concrets qui rendent intenable l’argument “on verra plus tard” pour 2026.
Greenhouse-Ezra closing ce trimestre. Quand ce sera fait, le screening par voix IA devient une option par défaut dans l’ATS pour ETI le plus utilisé en Amérique du Nord — et Greenhouse a une base client significative dans les filiales européennes. Tu n’évalueras plus de fournisseurs ni signeras de contrats procurement. Ce sera un toggle dans le système que tu as déjà.
Greenhouse MCP sort en juin. Ça veut dire qu’un recruteur dans un client Greenhouse va pouvoir demander — “Montre-moi le récap candidats de cette semaine, avec les patterns de red flag des transcriptions des entretiens par voix” — dans une interface chat, et le système ira chercher dans les fiches candidats, les transcriptions IA et les données pipeline en même temps. L’output du screening par voix sort du silo et se branche directement sur les flux IA que ton équipe utilise déjà.
Le AI Act entre en vigueur pour les systèmes à haut risque le 2 août 2026. Le recrutement IA est explicitement à haut risque. L’évaluation de conformité par des organismes notifiés devient obligatoire. Le RGPD continue à s’appliquer en parallèle, surtout pour les données biométriques — et la voix IA traite des données biométriques vocales à chaque appel, ce qui active les exigences de l’Article 9 (catégories particulières de données personnelles) et de l’Article 22 (décisions automatisées) en plus du régime AI Act.
Ce mur n’est pas à 18 mois. Il est à douze semaines.
L’audit en 4 questions, 30 minutes
L’audit fonctionne pour n’importe quel outil de screening par voix IA — Ezra, Paradox Olivia, HireVue, BrightHire, ou les éditeurs français. Le fournisseur compte moins que les quatre questions. Passe-les toutes avant que le premier candidat ne reçoive un appel IA.
1. Équité du candidat : la grille mappe-t-elle — directement ou indirectement — sur une catégorie protégée ?
Le design d’Ezra (et de la plupart des produits similaires) interview le recruteur et le manager en charge d’abord pour construire la grille d’évaluation spécifique au poste. Cette grille devient l’instrument de scoring de l’IA. Donc : tout biais dans la grille est dans chaque score, à l’échelle, avec le vernis de l’objectivité.
La revue en cinq questions, en français clair :
- La grille récompense-t-elle des qualités vocales (volume, accent, clarté, débit) qui ne sont pas pertinentes pour le poste ? Les scores de qualité vocale fonctionnent comme proxy de handicap auditif, handicap de la parole, origine migratoire — toutes catégories protégées sous l’Article L1132-1 du Code du travail (interdiction de discrimination sur ces motifs).
- Note-t-elle le “fit culturel” sur du langage qui mappe sur l’école, le quartier ou le code postal ? Proxy d’origine ethnique, de classe sociale, de statut socioéconomique.
- Note-t-elle la réputation de l’employeur précédent ? Proxy de classe.
- Note-t-elle “confiance” ou “énergie” ? Les deux corrèlent fort avec l’expression de genre — vecteurs classiques de biais.
- Note-t-elle la fluidité linguistique au-delà de ce que le poste exige ? Un poste de vente en boutique n’a pas besoin d’un C1 du DELF.
Si la grille a l’un de ces éléments : enlève-le avant le premier appel. La solution est en général une soustraction, pas une addition.
2. Grille structurée : archivée, revue, benchmarkée ?
La grille construite par la voix IA pour un poste se réutilise pour chaque candidat sur ce poste. Quand le poste change, la grille doit changer. Quand la fiche de poste glisse, il faut versionner. Quand le recruteur part, la grille doit être lisible par sa remplaçante.
Trois cases à cocher :
- La grille est stockée dans l’ATS (Greenhouse, Lever, Personio, Workday, Talentsoft, Bizneo HR ou les éditeurs français comme Flatchr, Cleverconnect, DigitalRecruiters) et liée à l’ID de la req — pas dans un dashboard spécifique au fournisseur dont tu pourrais perdre l’accès.
- Une personne humaine la revoit au moins mensuellement. Invitation calendrier récurrente, owner attribué. La revue vérifie si la grille colle encore à la fiche de poste actuelle.
- Benchmark trimestriel contre les outcomes réels d’embauche — le score prédit-il une performance à 90 jours, ou prédit-il autre chose ?
Le point 3 est celui que la plupart des équipes sautent. C’est aussi le premier sur lequel la CNIL ou l’inspecteur du travail vont demander des éléments dans une analyse d’impact relative à la protection des données (AIPD).
3. Expérience candidat : information préalable, seconde chance, accessibilité
Trois choses que tout screening par voix IA doit avoir avant la mise en production :
Information préalable que c’est un échange avec une IA. Langage clair, avant le début de l’appel : “Vous allez parler à une IA appelée [nom]. Ce n’est pas une personne.” C’est exactement l’exigence que l’Article 22 du RGPD (décisions automatisées) et la classification haut risque de l’AI Act imposent ensemble. L’information doit être explicite, par écrit, avant le début de l’appel. Une ligne enterrée dans la politique de confidentialité ne compte pas.
Politique de seconde chance. Les lignes téléphoniques coupent. Le chien aboie. L’enfant entre dans la pièce. La voix IA entend mal parfois. Les candidats doivent pouvoir demander un nouvel essai dans des conditions définies, et il faut un chemin documenté d’escalade vers un humain si le screening IA échoue pour des raisons non imputables au candidat.
Voie d’accessibilité. C’est une exigence légale française au titre de la loi Handicap du 11 février 2005, pas un nice-to-have. Les candidats avec des différences auditives, de parole, cognitives ou des troubles anxieux pour qui un format vocal pur est hostile doivent pouvoir demander un format alternatif — texte asynchrone, vidéo, ou entretien en direct avec une personne. Le chemin doit être visible au même endroit que l’information IA, pas caché dans une FAQ séparée. L’escalade par défaut va vers une personne humaine ayant l’autorité d’outrepasser l’IA.
4. Traçabilité : enregistrements, scores, alertes, conservation
La trace dont tu as besoin pour chaque appel IA :
- Enregistrement audio ou transcription, conservé au minimum pour la plus longue de 1 an ou la durée de conservation applicable à ton secteur (en France pour les processus de recrutement : 2 ans après la fin du processus de sélection selon les recommandations CNIL).
- Score et la version de grille qui l’a produit.
- Horodatage de l’information préalable et capture du consentement (RGPD Art. 7).
- Chemin d’escalade humaine avec SLA documenté — recommandation : chaque appel signalé est revu par un humain dans les 24 heures.
- Contrat de sous-traitance avec le fournisseur de voix IA, qui adresse explicitement le traitement des données biométriques (RGPD Art. 9 + Art. 28) et la résidence des données (la plupart des fournisseurs voix IA actuels stockent les enregistrements aux US — vérifier l’AIPD si tu opérés sous BCR ou clauses contractuelles types).
Pourquoi ça compte : quand un candidat contestera une décision (et ça arrivera — Greenhouse a rapporté dans son propre communiqué de mai que 46 % des candidats disent que leur confiance dans le processus de hiring a baissé sur les 12 derniers mois), tu as besoin de la trace. Quand la CNIL demandera, tu en as besoin. Quand le CSE demandera l’information sur le système algorithmique au titre de l’Article L2312-38 du Code du travail (consultation du CSE sur les outils numériques), tu en as besoin. Quand ta DSI demandera pourquoi des enregistrements audio de candidats sont dans un cloud d’éditeur US, tu as besoin de la clause de résidence des données.
La politique screening par voix IA, une page
Une fois l’audit propre, tu rédiges la politique. Une seule page. L’objectif n’est pas de satisfaire un avocat — c’est d’être lisible par la prochaine recruteuse qui rejoint l’équipe. Huit points, deux phrases chacun :
- Quels postes utilisent le screening par voix IA. Liste-les. Si “tous”, écris “tous”.
- Quel fournisseur. Un produit nommé, pas “plusieurs outils”.
- Cadence de revue de grille. Owner mensuel de revue, owner trimestriel de benchmark.
- Script d’information préalable. Texte mot pour mot que voit le candidat avant l’appel.
- Politique de seconde chance. Conditions et limites.
- Voie d’accessibilité. Texte mot pour mot + contact humain.
- Traçabilité. Ce qui est stocké, où, combien de temps, qui a accès.
- SLA d’escalade. Délai vers revue humaine pour les appels signalés.
C’est le document dont ta DSI, ton avocat en droit social, ton DPO et le CSE veulent chacun une copie. Imprimer. Signer. Archiver dans l’ATS lié à la fiche de poste. Quand le régime d’évaluation de conformité de l’AI Act démarre le 2 août, c’est la première pièce du dossier de conformité.
Ce que ça signifie pour toi
Si tu es recruteur in-house dans une équipe de 1 à 3 personnes dans une PME-ETI de 50 à 500 salariés : l’audit est ton chantier T3, pas “plus tard”. Bloque cette semaine 90 minutes. Passe les quatre questions sur le fournisseur que la direction lorgne (ou la voie Greenhouse-Ezra post-closing si vous êtes client Greenhouse). Rédige la politique. La première fois qu’un avocat de candidat demandera la grille et la trace, tu voudras que ce document soit déjà dans l’ATS, signé et daté.
Si tu es manager qui possède des reqs mais ne fais pas du recrutement à plein temps : ton rôle est l’entretien de paramétrage qui construit la grille. Quand l’outil voix IA te demande dans l’onboarding — “quels sont les indispensables, les nice-to-have, les disqualifiants ?” — ta réponse devient la grille de scoring de l’IA. Prends ces 20 minutes au sérieux. Pas du flou comme “compétences de communication”. Des signaux comportementaux précis que tu écouterais toi-même dans un premier tour.
Si tu es talent-ops lead dans une PME avec une majorité de recrutements opérationnels : les screenings par voix IA sont les plus utiles dans ta catégorie — postes opérationnels en gros volume avec questions structurées. Ce sont aussi ceux où le risque de biais est le plus élevé, parce que le pool de candidats est plus divers sur chaque axe démographique. L’audit n’est pas optionnel — c’est la différence entre passer à l’échelle proprement et créer un cas de discrimination indirecte sous le Code du travail.
Si tu es cabinet de recrutement ou chasseur qui place des candidats chez des clients utilisant Greenhouse : ton modèle économique change en T3. Le premier tour est désormais probablement un appel IA que le système de ton client tourne sans toi. Ouvre cette semaine une discussion de re-pricing avec tes 5 plus gros clients. Deux repositionnements viables : tu baisses ton honoraire de placement parce que tu ne fais plus le premier tour — ou tu ajoutes un service “QA du screening voix IA” où tu revois le scoring de l’IA et flagues les patterns avant la remise au manager.
Si tu es dirigeant de TPE qui recrute occasionnellement sans recruteur dédié : tu n’es pas encore la cible des outils voix IA — l’économie par appel ne tient pas en dessous de ~30 embauches par an. Mais tu devrais être au courant pour deux raisons : (1) quand tu recruteras, tes candidats ont peut-être déjà été pré-screenés par IA chez d’autres employeurs, et cette expérience colore comment ils interagissent avec toi ; (2) le côté candidat — coaching pour entretien IA — apparaît fort sur les recherches en français. Ton entretien live se compare à cette préparation.
Ce que l’audit ne peut pas régler
Sois honnête sur les limites des 30 minutes.
Il ne te dit pas si les screenings par voix IA améliorent tes embauches. Ça demande 90 jours de données de performance post-embauche, corrélées contre les scores IA. Lance sur un poste à la fois. Pas tous les jobs au jour 1.
Il ne corrige pas le biais du modèle sous-jacent du fournisseur. Si la voix IA du fournisseur performe moins bien sur la parole avec accent (plusieurs fournisseurs ont ce profil), aucun audit de grille ne te sauve. Lis les bias audits publiés du fournisseur. S’il n’en a publié aucun, c’est un red flag plus gros que ta grille.
Il ne remplace pas l’escalade humaine. L’audit demande que les appels signalés aillent à des humains. Si ton volume de hiring grandit et les flags grandissent avec, l’équipe humaine d’escalade doit grandir proportionnellement. Le screening IA n’est pas un premier tour “gratuit” — c’est une autre forme de coût.
Il ne te lit pas la jurisprudence sociale. Le RGPD est uniforme, mais les Conseils de prud’hommes et les Cours d’appel interprètent. Paris, Versailles, Bordeaux et Aix ont produit ces dernières années des interprétations différentes sur les algorithmes en emploi. Si tes candidats sont géographiquement dispersés, fais cadrer par ton DPO ou ton avocat en droit social la juridiction pertinente en cas de contentieux.
La conclusion
Les entretiens par voix IA franchissent la ligne de “outil que quelques équipes testent” vers “premier tour par défaut dans l’ATS pour ETI le plus diffusé”. Greenhouse-Ezra est le signal. Ton équipe sera consultée, ce trimestre, sur l’activation. Le 2 août 2026, l’AI Act fixera le cadre réglementaire.
L’assurance la moins chère que tu peux contracter avant cette décision : l’audit de 30 minutes et la politique d’une page. Passe les quatre questions. Rédige le document à huit points. Lie-le à la req. Quand l’équipe conformité, l’avocat en droit social, la DSI ou l’avocat du candidat demanderont — tu auras la réponse par écrit.
Dans 90 jours, tu lances le benchmark post-embauche. C’est la conversation pour savoir si l’IA t’aide vraiment à mieux recruter, ou simplement à traiter plus de candidatures.
Pour un guide plus profond sur la mise en conformité IA en RH dans le cadre français et européen — incluant la routine d’audit de biais, la bibliothèque de scripts d’information préalable, et le pattern de benchmark post-embauche — notre formation IA Act Conformité Entreprises couvre le chemin complet.
Sources
- Greenhouse signe un accord définitif pour acquérir Ezra AI Labs — Greenhouse Newsroom, 5 mai 2026
- 2026–2027 : Vers un recrutement plus sûr, mais plus exigeant basé sur l’AI Act — CCI Paris Île-de-France
- CNIL 2026 : auditez vos outils RH avant le contrôle — Intuition Software
- AI Act France : Autorités Compétentes (CNIL, DGCCRF, Arcom) 2026 — Leto Legal
- IA et recrutement : comment garantir une conformité RGPD sans freiner l’innovation RH — Cabinet Silexo
- Recruteurs, si vous utilisez des outils IA, la réglementation européenne les considère (presque) tous comme dangereux — Village Justice
- Actualité AI Act 2026 : calendrier et conformité — Données Personnelles
- 63 % des candidats ont déjà passé un entretien d’IA — PR Newswire