IA dans la formation : personnaliser sans déshumaniser ?
L’intelligence artificielle promet beaucoup à la formation : parcours personnalisés, contenus adaptés, feedback immédiat, gain de temps pour les formateurs. Mais derrière cette promesse se cache une question essentielle : en voulant mieux accompagner chaque apprenant, ne risque-t-on pas de rendre l’apprentissage plus froid, plus mécanique, et au fond moins humain ? Cet article ouvre une série de quatre épisodes consacrée à l’impact de l’IA dans la formation, en commençant par un sujet sensible mais incontournable : la déshumanisation.
L’IA en formation : une promesse séduisante
Depuis quelques années, l’IA est présentée comme une réponse presque idéale à un problème ancien de la formation : comment mieux répondre aux besoins de chacun dans des contextes où les groupes sont hétérogènes, les niveaux très différents et les rythmes d’apprentissage variés ? La personnalisation des apprentissages fait partie des promesses les plus mises en avant par les éditeurs de solutions et les auteurs spécialisés. L’idée est simple : analyser les données d’un apprenant pour lui proposer le bon contenu, au bon moment, avec le bon niveau de difficulté.
Sur le papier, cette logique paraît très convaincante. Un collaborateur maîtrise déjà un sujet ? Le système lui propose un module plus avancé. Une autre personne bloque sur un point précis ? L’outil lui suggère un exercice complémentaire, une reformulation ou une ressource plus progressive. L’IA semble ainsi capable de soutenir un apprentissage adaptatif qui s’ajuste au profil de chacun, en s’appuyant sur les données issues des quiz, des activités, du parcours et des interactions avec les plateformes.
Mais cette efficacité apparente mérite d’être examinée de près. Car personnaliser ne veut pas toujours dire mieux former. Et surtout, personnaliser n’est pas automatiquement synonyme d’accompagner.
Quand la personnalisation isole
L’un des risques évoqués dans l’article source est celui d’un apprentissage trop étroit, enfermé dans une logique de spécialisation excessive. C’est un point important : si l’IA ajuste en permanence le parcours à ce que l’apprenant sait déjà faire, elle peut aussi finir par réduire sa zone d’exploration, de confrontation et d’ouverture.
Prenons un exemple simple. Dans une formation à la sécurité incendie, un système trop “bien” calibré pourrait amener l’apprenant à devenir très performant sur un seul sous-thème, comme l’extinction des feux de classe A, tout en négligeant d’autres dimensions essentielles comme les risques électriques, les procédures d’évacuation ou la gestion de situations mixtes. On obtient alors une forme de progression très ciblée, mais pédagogiquement appauvrie. L’apprenant avance, oui, mais dans un couloir de plus en plus étroit.
C’est là que la comparaison avec les bulles de filtres prend tout son sens. Comme sur les réseaux sociaux ou dans la recherche d’information, l’algorithme peut finir par renforcer ce qui est déjà connu, déjà validé, déjà confortable. En formation, cela signifie moins de confrontation aux idées différentes, moins de surprise pédagogique, moins d’effort cognitif utile à la construction de compétences plus larges.
Le risque de remplacer l’accompagnement
L’autre grande inquiétude liée à la déshumanisation concerne la place du formateur. L’IA est très efficace pour produire, recommander, ajuster, résumer, reformuler. En revanche, elle ne remplace pas la relation, l’écoute, l’encouragement, ni la capacité à lire une situation humaine complexe. Or une formation ne consiste pas seulement à transmettre des contenus : elle consiste aussi à sécuriser un parcours, à rassurer, à relancer, à reformuler autrement, à donner du sens.
Le texte source rappelle avec justesse qu’un apprentissage authentique s’appuie sur un modèle humain que l’on peut observer, comprendre et vouloir imiter. C’est une idée forte : on n’apprend pas seulement en recevant de l’information, on apprend aussi par identification, par interaction et par confiance dans une personne réelle. C’est ce qui fait la différence entre un simple parcours automatisé et une véritable situation d’apprentissage.
Un tuteur humain sait repérer qu’un silence n’est pas toujours un manque d’intérêt, qu’un mauvais résultat à un quiz peut cacher un problème de compréhension plus profond, ou qu’une apprenante a besoin d’être rassurée avant de progresser. L’IA peut aider à objectiver des signaux, mais elle ne remplace pas cette intelligence relationnelle, qui repose sur l’expérience, l’empathie et le contexte.
Exemple concret en formation
Imaginons une formation en management pour de nouveaux encadrants. Une IA peut très bien proposer des micro-modules sur la gestion de conflit, le feedback, la conduite d’entretien ou la délégation. Elle peut aussi adapter l’ordre des contenus selon les résultats de l’apprenant, lui recommander des exercices, générer des cas pratiques, voire rédiger un résumé de ses réponses.
Mais peut-elle détecter qu’un participant n’ose pas prendre la parole parce qu’il doute de sa légitimité ? Peut-elle comprendre qu’un manager a besoin d’un échange individuel pour exprimer une difficulté relationnelle avec son équipe ? Peut-elle transformer une erreur de réponse en véritable moment de prise de conscience ? Non, pas à elle seule. C’est précisément là que le formateur reste central : pour interpréter, questionner, contextualiser et faire émerger du sens.
L’IA peut donc être utile comme outil de soutien, mais elle devient problématique lorsqu’elle prétend se substituer à l’humain dans ce qui relève de la médiation pédagogique.
La formation ne se résume pas aux données
Un autre point important dans le texte source concerne les données. L’IA fonctionne à partir d’informations collectées sur les apprenants : scores, clics, temps passé, réponses aux quiz, fréquence de connexion, historique d’usage, parfois même données issues d’autres outils numériques. Cette logique ouvre des perspectives très puissantes, mais elle pose aussi une question de fond : toutes les dimensions utiles à la formation sont-elles réellement mesurables ?
La réponse est non. On peut mesurer la complétion d’un module, le taux de réussite à un quiz ou le temps passé sur une séquence. On mesure beaucoup moins bien la prise de confiance, la maturation, l’envie de progresser, la qualité d’une réflexion ou la transformation d’une posture professionnelle. Pourtant, ce sont précisément ces dimensions qui font souvent la valeur d’une formation réussie.
C’est pourquoi la gouvernance des données devient un enjeu pédagogique autant qu’organisationnel. Une plateforme peut proposer un parcours individualisé, mais elle ne sait pas, à elle seule, si ce parcours reste cohérent avec les objectifs réels de la formation, la culture de l’entreprise, le niveau d’autonomie de l’apprenant ou les exigences du métier.
Vers une IA utile, mais encadrée
La bonne question n’est donc pas : faut-il accepter ou refuser l’IA en formation ? La vraie question est plutôt : dans quelles conditions l’IA devient-elle un appui sans devenir un substitut ? Plusieurs sources récentes convergent sur une réponse assez claire : l’IA est pertinente lorsqu’elle prend en charge les tâches répétitives, la suggestion de contenus, la remédiation simple ou la préparation de supports, tandis que l’humain conserve le feedback complexe, la motivation, l’évaluation qualitative et l’accompagnement réflexif.
On peut résumer cela ainsi :
- L’IA peut aider à diagnostiquer un niveau de départ.
- L’IA peut proposer des ressources et des exercices adaptés.
- L’IA peut accélérer la production de contenus ou de quiz.
- Le formateur, lui, garde la main sur le sens, la relation, le rythme et l’arbitrage pédagogique.
Autrement dit, l’enjeu n’est pas de supprimer l’IA, mais de lui assigner une juste place.
Le rôle des formateurs change, il ne disparaît pas
L’article source rappelle aussi un point très concret : les formateurs ont déjà vécu des vagues de transformation numérique, et ils savent qu’une nouvelle technologie ne remplace pas automatiquement les compétences pédagogiques. Ils doivent aujourd’hui développer des pratiques de veille, comprendre les usages, s’adapter aux outils et rester attentifs à l’engagement des apprenants.
C’est là une évolution majeure du métier. Le formateur n’est plus seulement celui qui “déroule” un contenu ; il devient aussi concepteur, curateur, accompagnateur, régulateur et garant de l’expérience d’apprentissage. Dans cette perspective, l’IA peut être un partenaire de production, mais pas le cœur de la relation pédagogique.
Les organismes de formation qui travaillent déjà dans une logique qualité, comme ceux concernés par Qualiopi, ont d’ailleurs tout intérêt à interroger l’usage de l’IA sous l’angle de la traçabilité, de la cohérence pédagogique et de la valeur ajoutée réelle pour les apprenants.
Ce qu’il faut retenir
La déshumanisation n’est pas une fatalité, mais un risque réel si l’IA est utilisée comme une logique de remplacement plutôt que comme une logique d’appui. Le danger n’est pas seulement technique ; il est pédagogique, relationnel et même culturel. Une formation efficace ne se contente pas d’être intelligente au sens algorithmique : elle doit aussi rester humaine, incarnée et reliée à une intention éducative claire.
L’IA peut faire gagner du temps, affiner les parcours et enrichir les modalités d’apprentissage. Mais elle ne remplace ni la présence du formateur, ni la confiance, ni l’attention portée à ce qui se joue entre les personnes. La vraie modernité de la formation ne consiste donc pas à effacer l’humain, mais à l’augmenter sans le diluer.
L’IA n’a pas vocation à rendre la formation plus froide, mais à libérer du temps pour ce qui compte vraiment : la relation, le sens et l’accompagnement.
Sources utiles
- Article de référence : Regards croisés sur l’IA (1/4), L’Atelier du Formateur.
- Sur la personnalisation des parcours : Comment personnaliser les parcours de formation grâce à l’IA.
- Sur le tutorat humain et l’IA : L’IA va-t-elle vraiment remplacer les tuteurs en entreprise ?.
- Sur la relation tutorale et les limites de l’IA : Intelligence artificielle et tutorat, Université de Bordeaux.
- Sur Qualiopi et l’IA : Qualiopi et IA et ChatGPT et Qualiopi.
