Depuis déjà 2014-2025 aux Etats-Unis, l’intelligence artificielle (IA) est rentrée dans les us et coutumes au sein des entreprises (Google, Amazon, etc). Si aujourd’hui, l’IA Act fait beaucoup de bruits, il s’avère en réalité que l’usage de l’IA est déjà sur le marché depuis 10 ans.
Légiférer sur cette matière est devenu essentiel suite à l’accessibilité croissante de toute sorte de logiciels d’IA sur le marché européen, tels que ChatGPT, Perplexity, les chatbots, etc.
L’intelligence artificielle (IA) s’invite désormais dans la gestion des ressources humaines : du recrutement à la fin de la relation de travail, elle promet efficacité et objectivité… mais soulève aussi d’importantes questions juridiques.
L’IA Act, le RGPD, les CCT n° 9 et n° 39 imposent un cadre légal que tout employeur doit désormais maitriser.
Concrètement, les employeurs peuvent aujourd’hui utiliser les outils d’IA à toutes les étapes de la relation de travail :
Les usages de l’IA sont désormais multiples et peuvent faire partie des pratiques des entreprises dans la gestion de son personnel à de multiples égards et de manière répétées.
Le Règlement UE 2024/1689 établissant des règles harmonisées concernant l’intelligence artificielle (dénommé « IA Act »), est entrée en vigueur le 1er août 2024 et a établi une entrée en vigueur des obligations de manière granulaire à partir de l’année 2025.
L’IA Act définit un système d’IA comme : « un système automatisé conçu pour fonctionner à différents niveaux d’autonomie et faire preuve d’une capacité d’adaptation après son déploiement, qui génère des prédictions, des recommandations ou des décisions influençant des environnements physiques ou virtuels ».
De manière inhabituelle, la définition de l’IA n’est pas si importante en ce que le champ d’application du Règlement ne vise pas tant à définir les systèmes mais plutôt à encadrer les résultats qui émanent de logiciels ayant les caractéristiques visées par la définition.
Les systèmes d’IA sont classés en fonction le niveau de risque qu’ils représentent. L’IA Act définit quatre niveaux de risque, entraînant des obligations croissantes :
Catégorie d’IA | Exemples d’IA en droit du travail | Régime juridique |
Risque inacceptable | Notation sociale, manipulation subliminale, reconnaissance d’émotions sur le lieu de travail, catégorisation biométrique liée à la religion, à l’orientation sexuelle ou aux opinions politiques. | Interdiction totale depuis le 2 février 2025 |
Haut risque | Recrutement, évaluation, attribution de tâches, promotion, licenciement, surveillance des performances. | Encadrement strict : évaluation de conformité, transparence, contrôle humain, formation du personnel. |
Risque limité | Chatbots RH, assistants virtuels. | Obligation de transparence : informer l’utilisateur qu’il interagit avec une IA et offrir une alternative humaine. |
Risque minimal | Filtres anti-spam, outils bureautiques d’assistance. | Pas d’obligation spécifique. |
L’IA Act a bien compris l’impact que ces usages peuvent avoir sur les relations professionnelles et c’est la raison pour laquelle le considérant 57 prévoit que :
« Les systèmes d’IA utilisés pour des questions liées à l’emploi, à la gestion de la main-d’œuvre et à l’accès à l’emploi indépendant, en particulier pour le recrutement et la sélection de personnes, pour la prise de décisions affectant les conditions des relations professionnelles, ainsi que la promotion et la résiliation des relations professionnelles contractuelles, pour l’attribution de tâches fondée sur le comportement individuel, les traits de personnalité ou les caractéristiques personnelles et pour le suivi ou l’évaluation des personnes dans le cadre de relations professionnelles contractuelles, devraient également être classés comme étant à haut risque car ces systèmes peuvent avoir une incidence considérable sur les perspectives de carrière et les moyens de subsistance de ces personnes ainsi que sur les droits des travailleurs. (…) » (je souligne).
Les pratiques RH peuvent être classées selon les catégories de risque suivantes :
Pratique RH fondée sur l’IA | Catégorie de risque | Raison |
Tri automatisé des candidatures, scoring de CV | Haut risque | Impact sur l’accès à l’emploi et risque de discrimination. |
Reconnaissance faciale ou émotionnelle pendant les entretiens | Risque inacceptable | Atteinte à la vie privée et dignité humaine. |
Attribution de tâches via un algorithme d’évaluation comportementale | Haut risque | Décision affectant les conditions de travail. |
Chatbot RH informatif | Risque limité | Obligation d’informer l’utilisateur qu’il parle à une machine. |
Outil de génération automatique de documents internes | Risque minimal | Usage administratif sans impact direct sur les droits. |
Les IA influençant la gestion RH appartiennent généralement à la catégorie “haut risque” car ils influencent directement la carrière et les droits fondamentaux des travailleurs, sauf si l’IA répond aux conditions suivantes :
Il n’y a pas de haut risque lorsque le système d’IA « ne présente pas de risque important de préjudice pour la santé, la sécurité ou les droits fondamentaux des personnes physiques, y compris en n’ayant pas d’incidence significative sur le résultat de la prise de décision.
Le premier alinéa s’applique lorsqu’une des conditions suivantes est remplie :
Nonobstant le premier alinéa, un système d’IA visé à l’annexe III est toujours considéré comme étant à haut risque lorsqu’il effectue un profilage de personnes physiques. »
C’est donc en fonction de l’usage qui est fait de l’IA et du résultat qu’il en ressort que les obligations sont déterminées.
Il est par ailleurs aisé de ne plus tomber dans la catégorie de « haut risque », notamment dès qu’il y a un examen humain approprié.
Une fois que l’employeur détecte le risque attaché aux systèmes d’IA utilisés, il est soumis à plusieurs obligations en vertu de différentes réglementations :
L’employeur, en tant qu’utilisateur d’un système d’IA, doit :
Depuis le 2 février 2025 :
2. Former le personnel à la compréhension et à l’usage de l’IA pour qu’ils soient capables de comprendre l’impact de l’usage de l’IA, les risques y afférents et prendre des décisions en connaissance de cause ;
Depuis le 2 août 2025 : des obligations s’appliquent aux modèles d’IA à usage général (comme ChatGPT) en matière de transparence. Ceci étant, ces obligations ne s’appliquent pas de manière directe aux employeurs vis-à-vis de leur personnel.
A partir du 2 août 2026 : toutes les obligations pour les systèmes à haut risque seront pleinement applicables. Les employeurs qui utilisent des systèmes IA à haut risques devront notamment :
L’IA traite souvent des données à caractère personnel, voire sensibles (opinions, santé, biométrie). L’employeur doit donc :
L’Autorité de protection des données recommande en outre de documenter la conformité et de tester régulièrement la loyauté et l’absence de biais.
Selon la CCT n° 9, le conseil d’entreprise, des entreprises qui occupent en moyenne au moins 100 travailleurs, doit être informé des projets susceptibles de modifier la politique du personnel, y compris l’introduction d’un système d’IA pour le recrutement, la promotion ou l’évaluation.
Selon la CCT n° 39, si l’IA constitue une nouvelle technologie ayant des conséquences collectives importantes sur l’emploi ou les conditions de travail, l’employeur occupant habituellement en moyenne au moins 50 travailleurs doit :
Le non-respect de cette procédure empêche l’employeur de licencier les travailleurs concernés pour des motifs liés à l’introduction de la technologie.
Avant d’implanter un outil d’IA, l’employeur est invité à :
L’intelligence artificielle peut être un puissant levier d’efficacité, mais elle ne peut remplacer ni la responsabilité ni le discernement humain.
L’IA Act, le RGPD et les CCT n° 9 et 39 forment un triptyque de régulation : sécurité, transparence et dialogue social.
L’employeur qui souhaite innover de manière durable devra donc conjuguer performance technologique et respect des droits fondamentaux.