Illustration d'une balance de justice équilibrant l'intelligence artificielle et la conformité légale, avec un homme et une femme professionnelle discutant de la régulation de l'IA en RH
Le24 novembre 2025

AI Act : Nouvelles Obligations RH

Le règlement européen AI Act bouleverse les pratiques RH depuis février 2025. Les IA émotionnelles sont interdites, tandis que les systèmes IA à haut risque (recrutement, évaluation) devront être conformes en août 2026. Les sanctions en cas de non-respect peuvent atteindre 35 millions d’euros ou 7% du chiffre d’affaires mondial. Conformité obligatoire pour toutes les entreprises.

L’AI Act transforme les règles du jeu en matière d’intelligence artificielle. Les RH doivent adapter leurs pratiques : certains systèmes d’IA sont désormais interdits, d’autres demandent une supervision humaine renforcée et une documentation complète. Cette conformité est obligatoire pour toutes les entreprises, quelle que soit leur taille.

Qu’est-ce que l’AI Act ?

L’AI Act (Règlement UE 2024/1689) est le premier règlement européen contraignant sur l’intelligence artificielle, adopté le 13 juin 2024. Il classe les systèmes d’IA selon quatre niveaux de risque (inacceptable, élevé, limité, minimal) et impose des obligations proportionnées à chaque niveau. Ce règlement s’applique directement dans tous les États membres.

Les dates clés de l’AI Act

L’AI Act entre en vigueur de manière progressive. Voici les trois échéances essentielles à retenir pour les RH :

  • 2 février 2025 : interdiction des IA émotionnelles sur le lieu de travail et obligation de formation pour les collaborateurs utilisant des systèmes d’IA.
  • 2 août 2026 : conformité complète exigée pour les systèmes d’IA à haut risque utilisés dans le recrutement, l’évaluation des performances et la gestion des carrières.
  • 2 août 2027 : application intégrale du règlement à tous les systèmes d’IA, y compris ceux déjà déployés avant l’entrée en vigueur du texte.

Ce qui est interdit dès maintenant

IA émotionnelles en entreprise

Depuis le 2 février 2025, il est strictement interdit d’utiliser des systèmes d’IA qui déduisent les émotions à partir de données biométriques sur le lieu de travail, sauf exceptions médicales ou de sécurité vitale.

Exemples interdits : analyse des expressions faciales en entretien, détection du ton de voix pour évaluer l’état émotionnel, surveillance des réactions émotionnelles via webcam, analyse comportementale pour mesurer l’engagement.

Autres interdictions : notation sociale (social scoring) par l’employeur et catégorisation biométrique basée sur des caractéristiques sensibles.

Systèmes d’IA à haut risque en RH

Ces systèmes devront être conformes d’ici le 2 août 2026. Ils concernent :

Recrutement : tri automatique de CV, chatbots de préqualification, entretiens vidéo différés avec analyse automatique, systèmes de matching profils/postes.

Gestion des performances : notation automatique, affectation de tâches basée sur l’analyse comportementale, surveillance de la productivité avec scoring.

Promotion et carrière : décisions de promotion assistées par IA, attribution d’opportunités de développement.

Obligations pour ces systèmes

  • Supervision humaine effective : décision finale toujours prise par un humain qualifié
  • Qualité des données : données pertinentes, représentatives, sans biais discriminatoires
  • Documentation technique complète : caractéristiques, limites, résultats d’évaluation
  • Conservation des logs : traçabilité des décisions et détection d’anomalies
  • Transparence : information claire des candidats et salariés
  • Analyse d’impact : évaluation des risques pour les droits fondamentaux

Vos actions prioritaires

1. Cartographier vos systèmes d’IA

Identifiez tous les outils utilisant l’IA dans vos processus RH : ATS, outils d’entretiens vidéo, systèmes d’évaluation automatisés, chatbots RH, outils d’analyse prédictive, IA « shadow » (ChatGPT, outils non autorisés).

2. Classifier par niveau de risque

Pour chaque système identifié, déterminez sa classification :

  • l’analyse émotionnelle est interdite
  • les ATS avec tri automatique et l’évaluation des performances par IA sont classés haut risque
  • les chatbots informationnels relèvent du risque limité.

3. Arrêter immédiatement les IA interdites

Si vous utilisez des systèmes d’analyse émotionnelle, cessez leur usage immédiatement. Sanctions : jusqu’à 35 millions € ou 7% du CA mondial.

4. Former vos collaborateurs (obligatoire)

Qui former ? Responsables RH, recruteurs, managers, équipes IT, représentants du personnel.

Contenu : Fonctionnement de l’IA, obligations légales, détection des biais, supervision humaine, droits des personnes.

5. Préparer la conformité des systèmes à haut risque

Auditer vos systèmes actuels, exiger la documentation technique de vos fournisseurs, réaliser une analyse d’impact sur les droits fondamentaux, mettre en place une supervision humaine qualifiée, documenter vos processus et conserver les logs.

6. Informer et consulter

Informer les candidats et salariés (usage de l’IA, données collectées, impact sur les décisions), consulter le CSE avant tout déploiement, formaliser une charte d’usage définissant les systèmes autorisés et les principes éthiques.

Sanctions

InfractionMontant maximal
Usage d’une IA interdite35 millions € ou 7% CA mondial
Non-conformité IA à haut risque15 millions € ou 3% CA mondial
Information inexacte aux autorités7,5 millions € ou 1% CA mondial

Autorité de contrôle en France : CNIL et autorités sectorielles. Pouvoirs : accès aux locaux, audits, injonctions, suspension, sanctions.

Questions fréquentes

Notre ATS trie automatiquement les CV. Sommes-nous concernés ?

Oui, si votre système utilise des algorithmes d’IA. C’est un système à haut risque. Conformité obligatoire d’ici août 2026 : supervision humaine, documentation, transparence, analyse d’impact.

Les petites entreprises sont-elles exemptées de l’AI Act ?

Non. L’AI Act s’applique à toutes les entreprises déployant des systèmes d’IA sur le territoire de l’Union européenne, quelle que soit leur taille. Cependant, les PME et start-ups bénéficient d’aménagements en termes d’accompagnement et d’accès aux ressources pour faciliter leur mise en conformité.

Notre fournisseur dit être conforme. Suffit-il de le croire ?

Non. Vous restez responsable en tant qu’utilisateur du système d’IA. Exigez la documentation technique, la déclaration de conformité, le marquage CE. Réalisez votre propre analyse d’impact et mettez en place une supervision humaine.

Sources et références

Dernière mise à jour : janvier 2025. Consultez régulièrement les autorités compétentes pour les évolutions du cadre juridique.

Partager l’article