IA dans la formation : évaluer sans déshumaniser ?
L’intelligence artificielle transforme déjà la manière de concevoir, d’analyser et de corriger les évaluations en formation. Prometteuse sur le plan de l’efficacité, elle soulève pourtant une question sensible : à force d’automatiser l’évaluation, ne risque-t-on pas d’ajouter une couche de stress, de distance et d’opacité pour les apprenants ? Dans ce deuxième épisode de notre série consacrée à l’IA dans la formation, on s’intéresse à un sujet central mais souvent mal traité : l’évaluation, et plus précisément le risque de déshumanisation qu’elle peut entraîner si elle est laissée trop largement aux algorithmes.
L’évaluation, un sujet déjà complexe
Avant même d’intégrer l’IA, l’évaluation est l’un des sujets les plus délicats en formation. Il faut d’abord savoir ce que l’on cherche à mesurer : les savoirs acquis, la qualité d’une formation, la progression d’une compétence, l’impact sur le terrain, ou encore un changement de posture professionnelle. À cela s’ajoutent d’autres questions tout aussi importantes : qui évalue, à quel moment, pour quelle finalité et avec quels critères ? L’article source souligne très justement que le couple “pourquoi x quoi” est au cœur de toute stratégie d’évaluation.
Dans la pratique, de nombreux services de formation peinent à clarifier cet objectif. Une évaluation peut servir à améliorer un dispositif, à rendre visible la valeur créée par une formation, à répondre à une exigence réglementaire, ou à donner à l’apprenant un espace de retour. Mais lorsque ces finalités sont mal définies, l’évaluation devient vite une procédure lourde, subie, parfois inutile. L’arrivée de l’IA peut alors accentuer ce flou si elle est utilisée pour “évaluer plus”, sans réfléchir à “évaluer mieux”.
Quand l’évaluation devient anxiogène
Le cœur du sujet, dans ce deuxième épisode, est là : l’IA peut rendre l’évaluation plus performante, mais aussi plus intimidante. L’article met en avant un risque majeur, celui d’une nouvelle couche de stress pour les apprenants. Ce stress n’est pas imaginaire. Il naît souvent de l’opacité des mécanismes : comment l’IA note-t-elle ? Sur quoi se base-t-elle ? Pourquoi telle réponse est-elle acceptée et telle autre pénalisée ? Qui peut expliquer ou contester le résultat ?
Cette inquiétude est particulièrement forte lorsque les critères ne sont pas explicités à l’avance. Un apprenant peut accepter une évaluation humaine, même sévère, parce qu’il comprend qu’elle s’inscrit dans une relation, un dialogue, une interprétation. Avec une IA, la logique est souvent perçue comme plus froide, plus automatique, et donc moins contestable. C’est ce sentiment d’impuissance qui peut générer de l’anxiété, surtout si la personne a l’impression d’être jugée par une machine sans visage.
Un exemple concret : dans une formation à l’écriture professionnelle, une IA utilisée pour évaluer un compte rendu peut attribuer une mauvaise note à un texte pourtant solide, simplement parce que la formulation est originale ou parce que le vocabulaire n’entre pas dans ses schémas d’analyse. À l’inverse, elle peut surévaluer un texte bien structuré mais peu profond. Dans les deux cas, l’apprenant peut ne pas comprendre la logique de l’évaluation. Et quand on ne comprend pas l’évaluation, on apprend moins bien.
La tentation de tout mesurer
L’un des effets pervers de l’automatisation est la tentation de tout quantifier. Dès lors qu’une plateforme peut enregistrer un clic, une réponse, un temps de connexion ou un taux de réussite, on peut être tenté de transformer chaque trace en indicateur de performance. Le problème, c’est que la valeur d’une formation ne se limite pas à ce qui est mesurable facilement.
Par exemple, dans une formation de management, une IA peut repérer qu’un participant répond correctement à des questions sur la conduite d’entretien. Mais elle ne sait pas toujours mesurer la qualité de son écoute, sa capacité à réguler une tension dans son équipe ou son évolution dans une situation réelle. Dans ce type de contexte, la réduction de l’évaluation à des critères purement automatisables peut appauvrir la compréhension des compétences réellement développées.
C’est pour cela que l’évaluation par l’IA doit rester un outil d’aide et non un modèle unique. Une organisation qui évalue uniquement ce que la machine peut corriger risque de favoriser des apprentissages plus faciles à mesurer, mais pas forcément plus utiles sur le terrain.
Le rôle irremplaçable du formateur
L’article source insiste à juste titre sur la nécessité de garder une dimension humaine prédominante dans tout processus d’évaluation. Cela passe d’abord par l’existence d’un interlocuteur réel, identifié, disponible pour expliquer, reformuler, rassurer ou contester si besoin. C’est un point essentiel : l’IA peut produire une note, mais elle ne peut pas assumer seule la responsabilité pédagogique du résultat.
Le formateur joue ici plusieurs rôles à la fois. Il conçoit les critères, choisit les modalités, interprète les résultats et accompagne la lecture des retours. Il peut aussi transformer l’évaluation en un moment de co-construction, où l’on ne se contente pas de sanctionner un niveau, mais où l’on analyse ce qui a été compris, ce qui reste fragile et ce qui mérite d’être retravaillé.
Exemple concret : après une mise en situation commerciale, une IA peut aider à pré-trier les copies, à repérer des tendances ou à proposer une première restitution. Mais c’est le formateur qui va nuancer une réponse, expliquer pourquoi une posture est pertinente, ou aider un apprenant à faire le lien entre un retour écrit et une pratique réelle. Sans cette médiation humaine, le feedback risque de rester superficiel.
Évaluer autrement grâce à l’IA
Le propos n’est pas de rejeter l’IA, mais de la repositionner intelligemment. Plusieurs sources récentes montrent que l’IA peut être utile si elle est intégrée dans une logique de correction assistée, de pré-analyse ou de feedback partiel, sous contrôle humain. Autrement dit, la machine peut faire une partie du travail, mais pas le travail pédagogique dans son ensemble.
On peut imaginer un modèle en quatre temps :
- La conception de l’évaluation par le formateur.
- La réalisation de l’épreuve ou de l’activité.
- L’assistance de l’IA pour la correction, la synthèse ou l’analyse.
- La restitution humaine, avec échange, explication et ajustement.
Ce type de fonctionnement a un double intérêt. Il réduit la charge de travail sur les tâches répétitives et il préserve un espace humain pour la lecture fine des résultats. Il permet aussi de transformer l’évaluation en processus plus continu, plus formateur et moins brutal qu’une simple note finale.
Exemples de bonnes pratiques
Pour éviter la déshumanisation, plusieurs pratiques sont recommandées. D’abord, annoncer clairement ce que l’IA fait et ce qu’elle ne fait pas. Ensuite, expliciter les critères d’évaluation et montrer sur quoi repose la décision. Enfin, conserver un point de contact humain à chaque étape sensible du parcours.
Voici quelques exemples concrets :
- Dans une formation à distance, l’IA peut corriger automatiquement les QCM, mais le formateur garde la validation des exercices ouverts.
- Dans un parcours certifiant, l’IA peut repérer des incohérences dans les réponses, mais l’entretien final reste mené par une personne.
- Dans un module de remise à niveau, l’IA peut proposer une autoévaluation, mais les résultats sont repris en échange collectif pour éviter l’isolement.
- Dans une formation comportementale, l’IA peut fournir des indicateurs, mais l’analyse du contexte et des progrès repose sur l’observation humaine.
Ces pratiques ne ralentissent pas nécessairement le dispositif. Elles le rendent plus lisible, plus rassurant et souvent plus juste.
Ce qu’il faut retenir
L’IA peut transformer en profondeur l’évaluation en formation : conception plus rapide, correction assistée, adaptation en temps réel, traçabilité renforcée et analyse plus fine des données. Mais ces gains techniques ne suffisent pas à garantir une évaluation de qualité. Si l’on oublie la dimension humaine, l’évaluation peut devenir opaque, stressante et déconnectée du vécu réel des apprenants.
La vraie question n’est donc pas de savoir si l’IA peut corriger une copie ou générer un questionnaire. La vraie question est de savoir comment l’utiliser sans transformer l’apprenant en simple donnée à interpréter. Une évaluation réussie reste celle qui aide à progresser, qui donne envie d’apprendre et qui laisse une place claire à l’échange, à l’explication et à la confiance.
Sources utiles
- Regards croisés sur l’IA (2/4), L’Atelier du Formateur.
- Quand l’apprenant est évalué par l’IA… Stress ?, L’Atelier du Formateur sur LinkedIn.
- Repenser ses évaluations à l’heure des IA génératives, Sup UBS.
- Que dois-je évaluer avec l’IA ?, Educavox.
- L’intégration de l’intelligence artificielle dans les évaluations de compétences, Edusign.
- L’IA pour la correction des copies : guide complet 2026, Evaluo.
- IA et évaluation : Déléguez la correction, gardez le coaching, The Learning Society.
