Introduction : IA & dialogue social – un impératif stratégique
Depuis 2023, l’intelligence artificielle a quitté les laboratoires pour s’installer au cœur des processus métiers : sourcing RH automatisé, copilotes de code, assistants de support client ou algorithmes de planification logistique. À court terme, les directions voient dans ces outils un formidable accélérateur de productivité ; à moyen terme, elles s’exposent à une triple responsabilité : juridique, éthique et sociale.
En France, la pierre angulaire de cette responsabilité est le Comité social et économique (CSE) : instance unique représentant les salariés depuis les ordonnances Macron de 2017. Ne pas l’associer à un projet IA revient à bâtir l’innovation sur du sable mouvant : la décision du tribunal judiciaire de Nanterre du 14 février 2025, qui a gelé un pilote IA pour absence de consultation, l’a cruellement rappelé capstan.fr.
Pourquoi le CSE est‑il incontournable ?
Rappel des prérogatives légales
Au‑delà de 50 salariés, le CSE doit être informé et consulté sur :
- les orientations stratégiques ;
- la situation économique et financière ;
- la politique sociale, les conditions de travail et l’emploi (art. L.2312‑8).
Tout projet ponctuel modifiant « l’organisation, la gestion ou la marche générale » – catégorie dans laquelle les solutions IA entrent quasi systématiquement – déclenche également la procédure.
L’employeur remet un dossier complet (art. L.2312‑15) et dépose les pièces dans la BDESE pour assurer la traçabilité. Si l’outil comporte un dispositif de contrôle de l’activité ou de surveillance (scoring de performance, détection de pauses…), l’article L.2312‑38 impose une seconde consultation spécifique sécurité/conditions de travail.
Calendrier et expertises
Le CSE dispose d’un délai d’un mois pour rendre son avis, porté à deux mois si les élus mandatent un expert « nouvelles technologies ». Les frais d’expertise sont supportés par l’entreprise, sauf abus manifeste. En pratique, tout retard ou dossier incomplet expose l’employeur au grief d’entrave.
IA : une « nouvelle technologie » au sens du Code du travail
Impacts multiples
L’IA n’est pas un logiciel comme les autres : elle automatise, calcule, surveille et – surtout – apprend. Ses effets se répartissent sur quatre axes :
- Organisationnel : redéfinition des chaînes de décision, apparition de nouveaux KPI, transformation des process qualité.
- Emploi : mutation des tâches, disparition de certains postes, création de profils data ou prompt engineering.
- Compétences : besoin d’upskilling continu, re‑dimensionnement des plans de formation.
- Données : collecte massive, risque de biais, enjeu RGPD.
Le Code du travail considère qu’une technologie impactant l’un de ces piliers oblige l’employeur à consulter le CSE.
Consultation même en phase pilote
Une croyance persiste : « on ne fait que tester ». L’article d’Unow, publié le 22 mai 2025, rappelle que la jurisprudence balaie cette idée : la simple expérimentation constitue déjà une décision de mise en œuvre et doit faire l’objet d’une information‑consultation.
Tester un chatbot sur cinquante commerciaux ou brancher un moteur de scoring sur mille CV, c’est déjà modifier le travail réel.
Zoom jurisprudence : l’ordonnance TJ Nanterre 14 février 2025
Pour la première fois, un juge des référés a suspendu un pilote IA – phase POC – faute d’information‑consultation du CSE. L’ordonnance (n° 24/01457) établit trois enseignements :
- la phase pilote n’échappe pas au dialogue social ;
- l’absence de consultation constitue un « trouble manifestement illicite » ;
- le juge peut assortir la suspension d’astreintes journalières.
Cette décision fait école : plusieurs tribunaux prud’homaux s’y réfèrent déjà dans des litiges RH liés aux IA de recrutement.
L’éclairage des praticiens : apports de l’article Unow
L’analyse de Magali Mezerette pour Unow apporte trois leviers concrets :
Tests et POC : l’innocuité est un mythe
Même restreint, un test reconfigure des missions ; c’est donc une décision managériale. Le dialogue social doit démarrer dès la phase de conception.
Risques cumulés
Au‑delà du délit d’entrave, Unow souligne la fracture de confiance quand les salariés découvrent l’outil après coup : soupçons de surveillance, crainte de substitution, jusqu’au blocage collectif.
Check‑list du dossier CSE
Le blog propose de détailler : finalité, données traitées, impacts salariés, classification AI Act, mesures d’accompagnement et plan de formation .
Cette trame rejoint l’exigence d’un registre de risques imposé par Bruxelles.
Cadre européen : l’AI Act 2024‑2027
Entré en vigueur le 1ᵉʳ août 2024, l’AI Act classe les systèmes IA en quatre niveaux. Les applications RH et de gestion du personnel sont « haute criticité ».
À compter du 2 août 2026, une obligation de transparence vis‑à‑vis des personnes concernées (salariés compris) sera active . Pour l’entreprise, cela signifie :
- fournir au CSE la documentation technique ;
- prouver l’oversight humain ;
- tenir un registre d’événements daté.
La consultation devient donc le pivot permettant de réconcilier droit social national et droit numérique européen.
Données personnelles & IA : recommandations CNIL 2025
Le 7 février 2025, la CNIL a publié des lignes directrices spécifiques aux IA : obligation d’AIPD pour tout traitement « haut risque », respect du principe de minimisation et information claire des salariés.
Le CSE peut exiger cette AIPD et vérifier les garanties d’anonymisation.
La convergence RGPD / AI Act renforce ainsi la position du CSE comme tiers de confiance.
Sanctions possibles
Délit d’entrave & suspension
Ignorer la consultation expose l’employeur à :
- 7 500 € d’amende personnelle + 37 500 € pour la société (art. L.2317‑1) ;
- suspension judiciaire du projet avec astreinte (TJ Nanterre 2025)
Amendes AI Act & image
Pour un manquement grave, l’AI Act prévoit jusqu’à 35 M€ ou 7 % du CA mondial. L’omission de transparence ou l’usage d’un système « haut risque » non conforme pourrait déclencher ces pénalités – auxquelles s’ajoute le coût invisible d’une crise de réputation.
Méthodologie d’une consultation réussie
« Mieux vaut prévenir que suspendre » – rappelle l’article Unow.
Cartographier l’impact
- qui est exposé ? (métiers, effectifs)
- quelles tâches ?
- quelles données ?
- indicateurs de réussite et de risque (biais, acceptabilité).
AIPD et registre de risques
Associer DPO, RSSI et représentant CSE pour conduire l’analyse d’impact ; publier un résumé non technique dans la BDESE.
Charte IA, GEPP et formation
Établir une charte IA annexée au règlement intérieur pour cadrer usages, shadow IT et sanctions.
L’intégrer ensuite dans la gestion des emplois et des parcours professionnels (GEPP) : l’IA devient un levier d’évolution des compétences, non une menace. Prévoir un plan de montée en compétences (prompt design, audit de biais, data literacy).
Tableau de bord & suivi
Après déploiement, communiquer trimestriellement au CSE :
- performance opérationnelle (KPIs métier) ;
- indicateurs de qualité de vie au travail ;
- métriques d’équité algorithmique (taux d’erreurs différenciés, par exemple).
Que faire en cas de consultation oubliée ?
Le blog Unow propose une stratégie de régularisation : saisir une actualité (mise à jour logicielle, montée de version) pour relancer le dialogue, intégrer l’IA dans la consultation annuelle, accepter une expertise rétroactive si nécessaire .
Plus l’employeur agit tôt, plus il réduit le risque d’astreinte ; mais si les élus sont déjà mobilisés, la suspension judiciaire reste probable.
Conclusion : vers une IA socialement durable
La consultation du CSE n’est pas une contrainte administrative ; c’est un outil de gouvernance qui garantit :
- la conformité (Code du travail, AI Act, RGPD) ;
- la maîtrise des risques (juridiques, réputationnels, humains) ;
- l’adhésion des équipes grâce à la co‑construction.
IA et dialogue social partagent une logique commune : la transparence. En intégrant le CSE dès les premiers prototypes, l’entreprise transforme une obligation en avantage concurrentiel, bâtissant une intelligence artificielle responsable, inclusive et pérenne.