Le profil d'étudiant qui complète le plus souvent son doctorat
L'autodétermination du doctorant est importante, mais elle n'est pas le seul facteur qui compte.
Publié le 18 mars 2026 Mis à jour le 18 mars 2026
Il est une ambition pédagogique qui traverse les siècles sans jamais perdre de son actualité : ajuster le défi «à la mesure de l'apprenant» . Trop facile, l’exercice ennuie et dissout l’attention ; trop difficile, il décourage et fracture la confiance. Entre ces deux écueils se joue ce que Lev Vygotsky a conceptualisé sous le nom de zone proximale de développement : cet espace subtil où l’apprenant peut progresser à condition d’être soutenu, guidé, accompagné. Ajuster, ce n’est donc pas seulement doser la difficulté, c’est discerner le moment opportun, la tension féconde, l’écart juste entre ce qui est acquis et ce qui peut advenir.
Longtemps, cet ajustement a relevé d’un art. Un art nourri d’observation, d’expérience, d’intuition professionnelle. Le pédagogue observe une hésitation, perçoit une crispation, entend un silence trop dense pour être anodin. Il reformule, ralentit, accélère, propose une analogie, change de registre. Son geste n’est pas improvisation pure : il s’appuie sur des savoirs théoriques, des modèles, des cadres conceptuels. Mais il demeure situé, incarné, relationnel. Il suppose une lecture fine de la situation, de l’histoire de l’apprenant, de la dynamique du groupe, du climat émotionnel.
Aujourd’hui, cette ambition ancienne rencontre une technologie nouvelle. Les plateformes adaptatives, les environnements numériques d’apprentissage et les systèmes d’analytique pédagogique promettent d’ajuster automatiquement la difficulté à chaque apprenant. Temps de réponse, taux d’erreur, fréquence des tentatives, régularité des connexions : autant de traces numériques qui alimentent des modèles prédictifs capables de moduler en temps réel le parcours d’apprentissage. L’algorithme devient ainsi l’architecte discret d’une personnalisation continue.
La promesse est séduisante. Là où l’enseignant doit composer avec le nombre, la fatigue, la contrainte temporelle, la machine traite des volumes massifs de données sans relâche. Elle identifie des corrélations invisibles à l’œil humain, détecte des tendances précoces de décrochage, ajuste instantanément la difficulté d’un item.
Dans une perspective de rationalité limitée telle que l’a décrite Herbert Simon, déléguer certaines décisions à des systèmes computationnels apparaît comme une stratégie efficace : optimiser localement des trajectoires d’apprentissage à partir d’indicateurs objectivés. À première vue, l’algorithme semble ainsi réaliser le rêve pédagogique d’un ajustement permanent, individualisé, débarrassé des biais subjectifs. Il promet une équité nouvelle : chacun progresse à son rythme, selon ses besoins, sans être comparé à la moyenne du groupe. Il promet aussi une efficacité accrue : moins de temps perdu sur des exercices trop simples, moins d’abandon face à des tâches prématurément complexes. L’adaptation devient dynamique, continue et calculée.
Mais une question s’impose : calibrer un défi se réduit-il à optimiser des indicateurs de performance ? L’ajustement « à sa mesure » peut-il être intégralement déduit de données comportementales ? Autrement dit, ce que l’algorithme mesure suffit-il à décrire ce qui, chez un apprenant, est en train de se transformer ?
La théorie du flow, développée par Mihaly Csikszentmihalyi, a montré que l’engagement optimal naît d’un équilibre délicat entre défi et compétence perçue. Or cette compétence perçue n’est pas strictement réductible à la performance observée. Elle engage la confiance, le sentiment d’efficacité personnelle ou encore la signification attribuée à la tâche. De même, la théorie de la charge cognitive de John Sweller rappelle que la difficulté objective d’une activité ne coïncide pas toujours avec la charge réellement supportée par l’apprenant. Un contexte anxiogène, une consigne ambiguë, une pression évaluative peuvent alourdir la charge au-delà de ce que les métriques laissent apparaître.
Ainsi, l’ajustement algorithmique opère principalement sur des variables observables : exactitude des réponses, rapidité, répétition ou encore progression séquentielle. Il optimise des trajectoires d’entraînement. Mais apprendre ne se réduit pas à réussir une série d’items; apprendre, c’est tout à la fois transformer ses représentations, intégrer des savoirs dans un réseau de significations et développer une identité professionnelle.
C’est ici que se dessine la tension au cœur de cet article. L’algorithme peut indéniablement soutenir l’ajustement pédagogique. Il peut révéler des régularités, objectiver des difficultés, alerter sur des fragilités. Mais il ne perçoit ni le tremblement d’une voix lors d’une simulation clinique, ni la posture hésitante d’un étudiant confronté à sa première responsabilité, ni la dynamique silencieuse d’un groupe qui se compare et se juge. Il individualise à partir de données ; le pédagogue contextualise à partir d’une situation.
La philosophie de la technique, notamment chez Gilbert Simondon, invite à dépasser l’opposition simpliste entre humain et machine. La technique n’est pas l’ennemie de l’humain; elle prolonge ses capacités mais elle transforme aussi les conditions de l’action. Lorsque le calibrage devient automatisable, le risque n’est pas tant la disparition du pédagogue que la redéfinition silencieuse de son rôle. Si l’ajustement est confié aux algorithmes, que reste-t-il du discernement pédagogique ? Une supervision marginale ? Une validation formelle ? Ou au contraire une responsabilité accrue d’interprétation et de mise en sens ?
L’enjeu n’est donc pas d’opposer expertise humaine et adaptation algorithmique mais de clarifier leurs frontières. Optimiser des trajectoires d’apprentissage ne signifie pas nécessairement favoriser une progression signifiante. La performance mesurable ne coïncide pas toujours avec la maturation intellectuelle ou professionnelle. Confondre ces deux registres reviendrait à réduire la complexité pédagogique à un problème d’ingénierie statistique.
À l’ère des plateformes adaptatives, ajuster « à sa mesure » ne peut plus être pensé comme un geste exclusivement intuitif ; mais il ne peut pas davantage être abandonné à la seule logique computationnelle. Il s’agit de redéfinir l’art du calibrage : comprendre ce que l’algorithme fait bien - et parfois mieux que nous - reconnaître ce qu’il ne peut saisir, et assumer la part irréductible de jugement, d’interprétation et de responsabilité qui demeure humaine.
Car derrière la question technique se profile une interrogation plus profonde : qu’est-ce qu’apprendre, et que voulons-nous réellement ajuster ? Un score ? Un taux de réussite ? Ou la trajectoire singulière d’un sujet en devenir ? C’est à cette frontière, mouvante et exigeante, entre optimisation et discernement, que se situe la réflexion proposée ici.
L’essor des plateformes adaptatives et des environnements numériques d’apprentissage ne relève pas d’un simple effet de mode technologique. Il s’inscrit dans une mutation profonde : la possibilité, désormais concrète, de collecter, traiter et exploiter en continu des traces d’activité pédagogique. Chaque clic, chaque réponse, chaque temps de latence devient une donnée. L’apprentissage laisse une empreinte numérique exploitable. À partir de ces traces, l’algorithme ajuste.
Ce premier mouvement mérite d’être analysé sans caricature. Car l’ajustement algorithmique ne se réduit pas à une promesse marketing. Il repose sur des modèles statistiques robustes et sur une ingénierie sophistiquée qui transforment effectivement les conditions de la personnalisation.
Les systèmes adaptatifs fonctionnent selon une logique apparemment simple : mesurer pour moduler. Le temps de réponse à un item, le taux d’erreur sur une compétence donnée, la régularité des connexions, la persistance après un échec, la séquence des tentatives, autant d’indicateurs qui alimentent des modèles prédictifs. L’objectif n’est pas seulement descriptif, il est prescriptif. À partir des données passées, le système infère la probabilité de réussite future et ajuste la difficulté en conséquence.
Dans cette perspective, l’apprentissage devient une trajectoire optimisable. Chaque apprenant est positionné dans un espace de probabilité : quelles notions sont maîtrisées ? Lesquelles sont fragiles ? Quel niveau de défi maximise la probabilité d’engagement et de réussite ? L’algorithme cherche le point d’équilibre statistique, celui où l’erreur est suffisamment présente pour stimuler l’effort, mais pas au point de décourager.
Cette logique renvoie à une rationalité instrumentale au sens de Herbert Simon : face à la complexité du réel, on construit des modèles simplifiés permettant de prendre des décisions efficaces dans un environnement incertain. L’algorithme ne prétend pas comprendre l’apprenant dans sa totalité ; il traite des variables observables et optimise sous contrainte. Son horizon est l’amélioration mesurable d’indicateurs définis en amont.
Dans cette optique, la pédagogie devient en partie une science des flux : flux de réponses, flux de progression, flux de remédiation. L’ajustement s’effectue en temps réel, sans délai, sans fatigue, sans variation d’humeur. À grande échelle, cette capacité constitue un atout indéniable.
L’un des arguments les plus puissants en faveur de l’adaptation algorithmique réside dans la promesse d’objectivité. Là où l’enseignant peut être influencé - consciemment ou non - par des biais d’attente, des impressions subjectives ou des comparaisons implicites entre apprenants, la machine applique des règles identiques à tous. Elle ne « préfère » personne. Elle calcule.
Dans des contextes de formation massifiés ou hybrides, cette standardisation peut contribuer à réduire certaines inégalités. L’apprenant rapide n’est plus ralenti par le rythme du groupe ; l’apprenant en difficulté bénéficie d’exercices supplémentaires ciblés sans être exposé publiquement à son retard. Le parcours devient singulier, presque intime.
De plus, l’algorithme rend possible un ajustement d’une granularité inaccessible à l’humain. Un formateur peut percevoir qu’un étudiant « a du mal » avec une notion. Le système, lui, identifie précisément les micro-compétences en jeu : confusion conceptuelle, automatisation incomplète, transfert inabouti. Il module le niveau de difficulté à l’échelle de l’item, ajuste la fréquence de révision, active des répétitions espacées optimisées.
Dans cette perspective, l’adaptation algorithmique apparaît comme une extension de la capacité pédagogique humaine. Elle offre une vision panoramique et micro-analytique simultanée. Elle transforme le pilotage pédagogique en un processus appuyé sur des données fines, continuellement actualisées.
Pourtant, c’est précisément dans cette efficacité que se niche un glissement conceptuel. L’optimisation porte d’abord sur des performances observables : réussir un item, améliorer un score, réduire un temps de réponse, stabiliser un taux d’erreur. Autrement dit, l’algorithme ajuste ce qui est mesurable.
Or, la réussite à court terme n’est pas toujours synonyme d’apprentissage durable. Un apprenant peut améliorer rapidement ses performances par familiarisation avec un format d’exercice sans pour autant transformer en profondeur ses représentations. Il peut optimiser sa stratégie de réponse sans consolider la compréhension conceptuelle. L’algorithme, en se fondant sur les données disponibles, tend à renforcer ce qui améliore les indicateurs.
C’est ici que l’on observe une tension subtile : la plateforme optimise des trajectoires d’exercisation mais la pédagogie vise des trajectoires de transformation. La différence peut sembler ténue ; elle est pourtant décisive. Optimiser un score relève d’une logique de rendement. Transformer un rapport au savoir engage un processus plus long, plus complexe, moins immédiatement mesurable.
Le risque n’est pas que l’algorithme se trompe - il peut être extrêmement performant dans son registre - mais qu’il impose insensiblement son registre comme norme. Lorsque les tableaux de bord deviennent centraux, lorsque les indicateurs structurent la prise de décision, la tentation est grande de confondre amélioration métrique et progression réelle. Ce qui n’est pas visible dans les données tend à perdre de sa valeur aux yeux du système.
Ainsi, l’ajustement algorithmique fonctionne selon une rationalité cohérente : mesurer, modéliser, optimiser. Il excelle dans la détection de patterns, dans la modulation fine de la difficulté ou encore dans la gestion individualisée à grande échelle. Il constitue un outil puissant d’ingénierie pédagogique.
Mais précisément parce qu’il est puissant, il appelle une vigilance critique. Car ce que l’algorithme voit et ajuste correspond aux variables qu’il peut capter. Or l’expérience d’apprentissage déborde ces variables.
Là commence la question décisive : que se joue-t-il dans l’espace non mesuré ? Que devient l’ajustement lorsque l’on quitte les indicateurs pour entrer dans la relation, l’affect, la dynamique de groupe, l’histoire singulière de l’apprenant ?
Ce que l’algorithme optimise est mesurable. Ce que le pédagogue perçoit dépasse souvent la mesure. C’est vers cette zone d’ombre, non pas obscure, mais non quantifiée, que doit désormais se tourner l’analyse.
Si l’algorithme excelle dans le traitement des variables observables, le pédagogue, lui, travaille dans une épaisseur de signes qui excède la trace numérique. Là où la machine capte des performances, l’enseignant perçoit des situations. Là où l’algorithme ajuste un niveau de difficulté, le pédagogue ajuste une relation, un climat, une confiance.
Il ne s’agit pas d’opposer rationalité et intuition, mais de reconnaître que l’activité pédagogique mobilise des registres que la donnée ne capture que partiellement. Ajuster « à sa mesure » n’est pas seulement calibrer une tâche, c’est aussi lire un sujet en devenir.
Dans une salle de formation, physique ou virtuelle, l’apprentissage se donne à voir sous forme de micro-événements. Un regard qui se détourne au moment d’une question. Une hésitation trop longue avant de prendre la parole. Une posture corporelle qui se ferme. Un rire nerveux face à une mise en situation.
Ces signaux faibles ne sont pas anecdotiques. Ils constituent des indices interprétatifs. Le pédagogue expérimenté ne les observe pas comme des données isolées, mais comme des configurations. Il croise la posture, le contexte, l’historique de l’apprenant, la dynamique du groupe. Il infère une fragilité, une inquiétude, parfois une incompréhension masquée par une performance correcte.
Aucune plateforme adaptative, à ce jour, ne saisit pleinement cette dimension incarnée de l’apprentissage. Même enrichie d’analyses comportementales sophistiquées, la donnée reste une abstraction : elle décrit des interactions avec un dispositif, non la totalité de l’expérience vécue.
Le discernement pédagogique repose précisément sur cette capacité à articuler des éléments hétérogènes - verbaux, non verbaux, contextuels - dans une interprétation située. Il s’agit moins d’« intuition » au sens vague que d’une expertise issue de l’expérience accumulée, comparable à celle d’un clinicien qui reconnaît une configuration avant même de pouvoir l’expliciter formellement.
La théorie du flow développée par Mihaly Csikszentmihalyi rappelle que l’engagement optimal dépend de l’équilibre entre défi et compétence perçue. Or la compétence perçue n’est pas toujours corrélée à la performance observée.
Un étudiant peut réussir des exercices tout en doutant profondément de sa légitimité. Un autre peut échouer momentanément tout en conservant une forte confiance en sa capacité à progresser. L’algorithme voit la réussite ou l’erreur ; le pédagogue perçoit la tonalité affective qui les accompagne.
Dans les formations professionnalisantes en particulier, cette dimension est cruciale. L’apprentissage engage une identité en construction. L’étudiant ne cherche pas seulement à « réussir un item » ; il cherche à devenir compétent, responsable, reconnu.
L’ajustement pédagogique doit alors tenir compte d’éléments symboliques : la peur de mal faire, la crainte du jugement, le rapport à l’autorité, l’histoire scolaire antérieure. Autant de dimensions qui influencent la manière dont un défi sera vécu. Une tâche objectivement accessible peut être subjectivement menaçante. Inversement, un défi exigeant peut devenir moteur si la confiance est suffisamment installée.
La théorie de la charge cognitive de John Sweller souligne que la difficulté d’une tâche ne dépend pas uniquement de sa structure intrinsèque. Le contexte émotionnel et motivationnel modifie la charge réellement supportée. Or ces paramètres échappent largement aux métriques quantitatives.
Ainsi, ajuster la difficulté ne consiste pas seulement à calibrer un niveau de complexité conceptuelle. C’est aussi réguler une dynamique psychologique. C’est parfois alléger la pression avant d’augmenter l’exigence. Parfois, au contraire, provoquer un léger inconfort pour susciter une prise de conscience. Cette modulation fine repose sur une lecture située, impossible à déduire d’un score isolé.
L’algorithme individualise. Le pédagogue contextualise.
Dans une classe, l’apprentissage ne se joue jamais exclusivement au niveau individuel. Il est traversé par des dynamiques collectives : comparaison implicite, solidarité, rivalité, contagion émotionnelle. Un étudiant en difficulté peut être soutenu par le groupe ou au contraire s’y sentir exposé. Une réussite individuelle peut renforcer ou fragiliser la cohésion.
Le calibrage humain intègre cette dimension systémique. Ajuster un défi pour un apprenant suppose parfois de considérer l’effet sur les autres. Introduire une activité plus complexe peut stimuler l’ensemble du groupe. Maintenir un rythme plus lent peut sécuriser un climat fragile.
La philosophie de la technique chez Gilbert Simondon rappelle que l’objet technique fonctionne selon ses propres régimes d’opération. L’algorithme opère dans un cadre formalisé ; il traite des variables définies. L’humain, lui, agit dans une situation ouverte, évolutive, imprévisible.
Cette différence n’est pas un défaut de la machine, elle en marque en revanche la nature. Mais elle signifie que le calibrage algorithmique ne peut prétendre épuiser la complexité pédagogique. Car ajuster un défi en formation implique de tenir compte d’enjeux éthiques, de responsabilités futures, d’attentes institutionnelles. Ce sont des dimensions qualitatives, normatives, situées.
Le pédagogue ne se contente pas d’optimiser une trajectoire individuelle ; il veille à la cohérence d’un parcours, à la maturation d’un collectif, à la signification globale de l’expérience. Son discernement s’exerce dans une pluralité de registres que la donnée ne capte que partiellement.
En définitive, ce que voit le pédagogue dépasse ce que la donnée enregistre. Non parce que la machine serait incapable de progrès, mais parce que l’apprentissage est un phénomène incarné, relationnel et symbolique.
L’algorithme individualise à partir de traces. Le pédagogue contextualise à partir d’une situation vivante. Cette distinction ouvre une tension féconde : comment articuler l’efficacité de l’individualisation statistique avec la profondeur de la contextualisation humaine ?
C’est précisément cette tension qui conduit à examiner plus finement la différence entre individualisation algorithmique et contextualisation pédagogique. Car ajuster « à sa mesure » ne signifie pas seulement adapter un niveau de difficulté. Cela suppose aussi de comprendre ce que signifie apprendre dans un contexte donné.
Si l’algorithme individualise et si le pédagogue contextualise, la question devient alors plus précise : que change ce passage d’échelle ? Individualiser consiste à ajuster un parcours à partir de données propres à un sujet. Contextualiser suppose d’inscrire ce sujet dans une situation, une histoire, un collectif, un horizon professionnel.
Ce déplacement est décisif. Car ajuster un défi ne revient pas simplement à calibrer une difficulté cognitive ; cela engage une compréhension du sens de l’apprentissage dans un environnement donné.
Les systèmes adaptatifs reposent sur des logiques de segmentation. À partir des traces collectées, ils construisent des profils : apprenant rapide mais imprécis, régulier mais lent, performant sur la mémorisation mais fragile sur le transfert, etc. Ces profils permettent d’orienter des parcours différenciés.
En termes techniques, il s’agit souvent de clustering, de modélisation bayésienne, de réseaux de neurones prédictifs. L’objectif est d’identifier des patterns récurrents pour proposer la ressource la plus pertinente au moment opportun.
Dans cette logique, l’individualisation est une optimisation locale. On ajuste un item, une série d’exercices, un rythme de révision. L’environnement devient adaptatif : il réagit aux performances passées pour anticiper les performances futures.
Cette approche présente des bénéfices indéniables. Elle permet d’éviter l’uniformité des parcours. Elle réduit le temps passé sur des compétences déjà maîtrisées. Elle cible précisément les lacunes détectées. Elle peut même favoriser l’engagement en maintenant un niveau de défi statistiquement optimal.
Mais cette individualisation reste centrée sur l’interaction entre un individu et un système. Elle traite l’apprenant comme une unité analytique relativement isolée. Elle ne prend en compte que ce qui est modélisable dans le cadre du dispositif.
Or apprendre ne se réduit pas à interagir avec une séquence d’exercices.
Contextualiser, c’est changer de focale. Ce n’est plus seulement ajuster un niveau de difficulté ; c’est comprendre pourquoi et pour quoi l’on ajuste.
Dans une formation professionnalisante notamment, un exercice n’est jamais neutre. Il prépare à des situations réelles où la responsabilité, l’incertitude et la dimension relationnelle sont centrales. Ajuster un défi dans ce cadre suppose d’intégrer des enjeux symboliques : rapport à l’erreur, gestion du stress, confrontation à l’imprévisible.
Un algorithme peut réduire la difficulté d’un cas simulé si les réponses sont incorrectes. Mais le pédagogue peut décider, au contraire, de maintenir une certaine complexité pour confronter l’apprenant à la réalité du terrain. Il peut juger que l’enjeu n’est pas seulement la réussite immédiate, mais l’apprentissage de la gestion de l’incertitude.
La contextualisation est un acte interprétatif. Elle repose sur une compréhension située : qui est cet apprenant ? Où en est-il dans son parcours ? Quelle est la dynamique du groupe ? Quels sont les objectifs institutionnels et professionnels à moyen terme ?
Elle est aussi un acte éthique. Car ajuster un défi, c’est orienter une trajectoire. C’est décider du niveau d’exigence auquel on expose un sujet en formation. Réduire systématiquement la difficulté au moindre signe d’échec peut fragiliser la capacité à affronter des situations complexes. À l’inverse, maintenir un défi trop élevé peut générer découragement et retrait.
Le discernement pédagogique consiste précisément à naviguer dans cette tension, en tenant compte de dimensions que la modélisation algorithmique ne capture que partiellement : maturité professionnelle, posture réflexive, capacité à coopérer, rapport à l’autorité et à la responsabilité.
La théorie de la charge cognitive élaborée par John Sweller met en garde contre la surcharge qui entrave l’apprentissage. Les systèmes adaptatifs peuvent utilement réduire cette surcharge en calibrant la complexité des tâches.
Cependant, dans certaines formations, l’objectif n’est pas seulement de maîtriser des contenus dans un environnement stable, mais de développer une capacité à agir dans des contextes incertains. Former un professionnel, ce n’est pas simplement optimiser sa performance sur des exercices gradués ; c’est l’exposer progressivement à la complexité du réel.
Une adaptation algorithmique trop protectrice pourrait involontairement lisser l’expérience d’apprentissage. En cherchant en permanence l’équilibre optimal entre difficulté et réussite immédiate, elle risque de minimiser l’exposition à l’imprévu, à l’ambiguïté, à la frustration constructive.
Or la compétence professionnelle inclut la capacité à tolérer l’incertitude, à persévérer face à l’échec, à mobiliser des ressources en situation non routinière. Ces dimensions ne se laissent pas aisément modéliser par des indicateurs de performance.
La contextualisation pédagogique permet précisément d’introduire cette complexité de manière progressive et intentionnelle. Elle ne se contente pas de réagir aux erreurs. Elle anticipe des situations futures. Elle articule le présent de l’exercice et l’horizon du métier.
Ainsi, le passage de l’individualisation à la contextualisation ne constitue pas une simple nuance terminologique. Il marque une différence de nature : l’une optimise des interactions locales, l’autre oriente une trajectoire dans un cadre symbolique, collectif et professionnel.
En définitive, l’algorithme personnalise à partir de profils quand le pédagogue contextualise à partir d’un projet. L’un ajuste des paramètres, l’autre construit du sens.
Il ne s’agit pas de nier la pertinence de l’individualisation algorithmique, mais de reconnaître qu’elle opère dans un registre spécifique : celui de l’optimisation mesurable. La contextualisation, elle, relève d’un jugement interprétatif et normatif qui dépasse la seule performance observable.
Dès lors, la question n’est plus de choisir entre individualisation et contextualisation, mais d’organiser leur articulation. Comment tirer parti de la puissance analytique des systèmes adaptatifs sans réduire le calibrage pédagogique à une fonction statistique ? Comment préserver le discernement humain dans des environnements de plus en plus instrumentés ?
C’est cette recherche d’une complémentarité critique qu’il convient désormais d’explorer.
Si l’algorithme optimise et si le pédagogue contextualise, la question décisive n’est plus de savoir lequel doit l’emporter, mais comment distribuer les rôles sans confusion. Le danger n’est pas l’existence des systèmes adaptatifs ; il réside dans leur naturalisation. Lorsque l’optimisation statistique devient la norme implicite du « bon ajustement », le discernement humain risque de se réduire à une validation périphérique.
Penser une complémentarité critique suppose donc de clarifier les frontières : ce que l’algorithme fait mieux, ce que le pédagogue doit continuer d’assumer, et ce qui relève d’une co-élaboration exigeante.
Dans sa fonction la plus pertinente, l’algorithme agit comme un révélateur. Il rend visibles des tendances difficiles à percevoir à l’œil nu : stagnation sur une micro-compétence, irrégularité dans l’engagement, baisse progressive de performance sur une séquence donnée.
Dans des cohortes nombreuses ou des dispositifs hybrides, cette capacité constitue un atout majeur. Les learning analytics offrent une cartographie dynamique des apprentissages. Elles permettent d’identifier précocement des risques de décrochage, de cibler des besoins de remédiation, d’objectiver certaines intuitions pédagogiques.
Dans cette perspective, la machine ne remplace pas le jugement, elle l’éclaire. Elle élargit le champ perceptif du formateur. Là où l’observation humaine est ponctuelle et située, l’analytique est continue et exhaustive dans son registre.
Cette complémentarité peut renforcer la qualité du pilotage pédagogique. Un formateur peut, par exemple, croiser ses impressions qualitatives avec les données issues de la plateforme. Une hésitation perçue en séance peut trouver un écho dans une baisse mesurable de performance. À l’inverse, une performance stable peut interroger une intuition trop pessimiste.
L’algorithme devient alors un outil d’aide au diagnostic. Il soutient une démarche réflexive, sans se substituer à elle.
La frontière devient problématique lorsque l’outil prescrit au lieu d’éclairer. Si le système décide automatiquement des parcours sans médiation humaine, le risque est de confondre recommandation statistique et décision pédagogique.
Or interpréter une donnée ne consiste pas à la suivre mécaniquement. Une baisse de performance peut signaler une difficulté conceptuelle, mais aussi une fatigue passagère, une surcharge émotionnelle ou un désengagement lié à des facteurs extérieurs au dispositif.
Le formateur, en tant qu’interprète, recontextualise les indicateurs. Il les inscrit dans une histoire, un échange, une situation vécue. Il peut décider de ne pas suivre la recommandation algorithmique si celle-ci entre en tension avec son analyse globale.
Dans cette redéfinition des rôles, le formateur devient moins dispensateur exclusif de contenus et davantage architecte de scénarios. Il conçoit des dispositifs hybrides où l’algorithme gère certaines dimensions techniques - répétition espacée, ajustement de difficulté, entraînement automatisé - tandis que les temps synchrones sont consacrés à l’analyse, au débat ou encore à la mise en situation complexe.
La valeur ajoutée humaine se déplace vers l’explicitation du sens, la régulation relationnelle et l’accompagnement réflexif. L’art du calibrage ne disparaît pas. Il change de niveau. Il ne porte plus uniquement sur la difficulté d’un exercice, mais sur l’orchestration d’un parcours.
Cette complémentarité n’est cependant pas spontanée. Elle exige une acculturation. Les données pédagogiques ne sont pas neutres ; elles sont construites selon des modèles, des hypothèses, des choix techniques.
Comprendre ce que mesure réellement un indicateur, ce qu’il ignore, quelles hypothèses il incorpore, devient une compétence professionnelle à part entière. Lire un tableau de bord suppose une littératie numérique spécifique : savoir distinguer corrélation et causalité, performance immédiate et consolidation durable, moyenne statistique et trajectoire singulière.
La rationalité algorithmique repose sur une formalisation nécessairement simplifiée du réel. Elle sélectionne certaines variables au détriment d’autres. Cette sélection structure implicitement la définition de la réussite.
Former les formateurs à cette lecture critique revient à préserver leur capacité de discernement. Il ne s’agit pas de rejeter les données, mais de les interroger. De les considérer comme des éléments d’un diagnostic plus large, et non comme des verdicts définitifs.
Dans cette perspective, la philosophie de la technique de Gilbert Simondon offre un éclairage précieux : la technique n’est pas extérieure à l’humain ; elle participe d’un processus d’individuation. Mais cette intégration suppose une compréhension des régimes d’opération de l’objet technique. L’outil doit être compris pour être intégré sans aliéner.
Au cœur de cette complémentarité critique se trouve une question de responsabilité. Ajuster un défi n’est pas un acte neutre. Il engage la trajectoire d’un apprenant, parfois sa confiance, parfois son orientation professionnelle.
Déléguer intégralement ce calibrage à un système statistique reviendrait à déplacer la responsabilité vers un dispositif dont les critères sont inscrits en amont. Or l’éducation ne peut se décharger entièrement de cette responsabilité sur un calcul.
Préserver la responsabilité humaine ne signifie pas refuser l’automatisation utile. Cela implique de maintenir un espace de décision interprétative. Un espace où l’on peut suspendre la recommandation, la discuter, la contextualiser.
Ainsi, la complémentarité critique ne consiste pas à juxtaposer humain et machine, mais à articuler optimisation et jugement. L’algorithme peut optimiser des séquences ; le pédagogue garantit la cohérence, le sens et la finalité du parcours.
En redéfinissant les frontières du calibrage, une évidence apparaît : l’enjeu dépasse la simple organisation des rôles. Ce qui se joue derrière l’ajustement algorithmique n’est pas seulement une question d’efficacité pédagogique, mais une conception même de l’apprentissage et de la réussite.
Optimiser une performance mesurable est-ce former un sujet capable de discernement ? L’amélioration statistique suffit-elle à qualifier une progression signifiante ?
C’est à cette interrogation plus fondamentale, presque philosophique, qu’il faut désormais se confronter.
À mesure que l’on affine les dispositifs adaptatifs et que l’on perfectionne les modèles prédictifs, une interrogation plus profonde émerge. Le calibrage n’est pas seulement une opération technique. Il engage une certaine conception de l’apprentissage, du sujet et de la réussite.
Optimiser une trajectoire d’exercisation ne revient pas nécessairement à former un sujet capable de jugement. Ajuster une difficulté en fonction d’indicateurs de performance ne dit rien, en soi, de la transformation intérieure qui constitue l’acte d’apprendre.
Derrière la question technique du « bon réglage » se dessine ainsi une question philosophique : que cherchons-nous réellement à ajuster ?
Les plateformes adaptatives fonctionnent selon une logique d’optimisation : réduire l’erreur, augmenter la réussite, stabiliser des compétences observables. Cette logique est cohérente et légitime. Elle permet des gains mesurables. Elle rend visible une progression.
Mais la performance mesurable n’épuise pas la progression signifiante. Apprendre ne consiste pas seulement à améliorer un score ; c’est transformer son rapport au savoir, à soi-même et au monde.
Un apprenant peut afficher des résultats élevés sans avoir intégré les savoirs dans un cadre conceptuel stable. Il peut réussir des tâches familières sans être capable de transférer ses acquis dans un contexte nouveau. À l’inverse, une phase de stagnation apparente peut correspondre à une restructuration profonde des représentations.
La zone proximale de développement décrite par Lev Vygotsky ne se réduit pas à un intervalle de difficulté statistiquement optimal. Elle suppose une médiation, une interaction signifiante et une dynamique sociale.
Lorsque l’optimisation devient la métrique dominante, le risque est de privilégier ce qui est immédiatement quantifiable au détriment de ce qui se transforme plus lentement : l’esprit critique, la posture réflexive, la capacité à problématiser.
Le calibrage algorithmique peut ainsi produire une illusion de maîtrise. Parce que la courbe monte, nous supposons que l’apprentissage progresse. Or toute progression chiffrée n’est pas nécessairement une maturation intellectuelle.
L’efficacité des systèmes adaptatifs peut engendrer une tentation subtile : celle de déléguer progressivement l’art du calibrage. Si la machine ajuste plus vite, plus finement, plus objectivement, pourquoi maintenir une médiation humaine systématique ?
Cette tentation s’inscrit dans une dynamique plus large de rationalisation. Dans des environnements contraints par le temps, le nombre et les exigences institutionnelles, l’automatisation apparaît comme une solution pragmatique. Elle promet cohérence, traçabilité et optimisation continue.
Mais déléguer intégralement le calibrage revient à déplacer la norme pédagogique vers le modèle statistique sous-jacent. Les critères de réussite deviennent ceux qui ont été programmés. Les finalités implicites du système, souvent orientées vers la performance observable, structurent silencieusement l’expérience d’apprentissage.
La rationalité limitée décrite par Herbert Simon trouve ici une nouvelle expression : face à la complexité, nous simplifions. Mais toute simplification sélectionne certains paramètres et en exclut d’autres. Lorsque le calibrage repose principalement sur des indicateurs quantifiables, ce qui n’est pas quantifié risque d’être marginalisé.
L’enjeu n’est pas de rejeter l’automatisation, mais d’éviter qu’elle devienne un principe exclusif. Car l’apprentissage engage des dimensions éthiques, symboliques ou encore relationnelles qui ne se laissent pas aisément formaliser.
L’art du pédagogue ne réside pas seulement dans la transmission de contenus, mais dans le discernement. Discerner, c’est interpréter une situation singulière à la lumière d’un horizon plus large. C’est décider quand soutenir, quand confronter, quand ralentir, quand accélérer.
Ce discernement est un acte éthique autant que technique. Il engage une responsabilité : celle d’exposer un apprenant à un niveau d’exigence qui favorise sa croissance sans le fragiliser inutilement.
L'objet technique ne doit pas être opposé à l’humain, mais intégré dans un processus d’individuation. Cela suppose une relation consciente et critique à la technique. L’outil devient fécond lorsqu’il est compris et maîtrisé, non lorsqu’il dicte implicitement la norme.
Préserver l’art du discernement, ce n’est pas refuser les learning analytics ; c’est refuser qu’elles deviennent l’unique boussole. C’est maintenir un espace de jugement où la décision pédagogique ne se réduit pas à une recommandation algorithmique.
Dans un environnement de plus en plus instrumenté, la compétence clé du formateur pourrait précisément devenir cette capacité à articuler données et interprétation, optimisation et sens, efficacité et responsabilité.
L’ajustement « à sa mesure » ne peut être entièrement calculé, parce qu’il concerne un sujet en devenir, inséré dans un contexte vivant. La donnée décrit une partie de cette réalité ; elle ne l’épuise pas.
Au terme de cette exploration, une conviction se dessine : le calibrage n’est pas qu’un problème d’ingénierie. Il est une question de finalité. Voulons-nous optimiser des performances ou accompagner des transformations ? Cherchons-nous la trajectoire la plus efficace ou la plus signifiante ?
Ces interrogations ne disqualifient pas l’algorithme ; elles invitent à le replacer dans une architecture plus large où l’expertise humaine demeure garante du sens. C’est à cette condition que l’ajustement technologique pourra devenir une ressource partagée, plutôt qu’une délégation silencieuse de l’art pédagogique.
L’algorithme ajuste. Le pédagogue interprète. Entre ces deux gestes ne se joue pas un duel, mais une redéfinition des frontières du calibrage pédagogique.
Les plateformes adaptatives ont indéniablement transformé notre capacité à personnaliser les parcours. Elles mesurent avec une précision inédite, détectent des régularités invisibles, optimisent des séquences d’exercisation à une échelle impossible à soutenir uniquement par l’observation humaine. Dans des contextes massifiés, hybrides ou contraints, cette puissance analytique constitue un levier réel d’amélioration. Mais optimiser n’est pas discerner.
L’optimisation algorithmique opère dans un espace formalisé : elle ajuste en fonction d’indicateurs définis, sélectionnés, pondérés. Elle maximise une probabilité de réussite à court ou moyen terme. Elle excelle dans la gestion de la complexité calculable.
Le discernement pédagogique, lui, s’exerce dans une complexité vécue. Il articule performance et confiance, difficulté et sens, progression mesurable et maturation intérieure. Il intègre des dimensions relationnelles, symboliques et collectives. Il tient compte du contexte, du moment, de l’histoire singulière d’un apprenant.
La donnée pédagogique décrit. Elle ne comprend pas. Elle signale. Elle ne décide pas du sens.
C’est ici que réside l’enjeu central : ne pas confondre performance mesurable et progression signifiante. Une courbe ascendante ne garantit pas une transformation profonde. Un taux d’erreur maîtrisé ne dit rien, à lui seul, de la capacité à transférer, à problématiser, à agir dans l’incertitude. À l’inverse, une phase de fragilité apparente peut correspondre à une restructuration féconde.
À l’ère des environnements numériques, la tentation est grande de déléguer l’art du calibrage aux systèmes statistiques. Après tout, ils sont rapides, cohérents, traçables. Ils semblent offrir une objectivité rassurante. Mais déléguer entièrement l’ajustement reviendrait à déplacer la norme pédagogique vers ce qui est calculable.
Or tout ce qui compte en formation ne se laisse pas compter.
L’ajustement « à sa mesure » ne peut être intégralement calculé parce qu’il concerne un sujet en devenir. Il suppose une lecture située, une médiation, une responsabilité. Il engage une éthique du défi : exposer sans écraser, soutenir sans surprotéger, exiger sans décourager.
La véritable question n’est donc pas : humain ou machine ? Elle est : comment articuler optimisation et discernement sans que l’un absorbe l’autre ?
Une complémentarité exigeante est possible et même souhaitable. L’algorithme peut devenir un outil d’aide au diagnostic, un révélateur de tendances, un soutien à la différenciation. Le formateur, de son côté, demeure interprète, architecte de scénarios, garant du sens et de la finalité. L’un élargit le champ perceptif ; l’autre oriente la trajectoire.
Dans cette perspective, la compétence clé des années à venir ne sera peut-être ni purement technique ni purement pédagogique, mais herméneutique : savoir lire les données sans s’y soumettre, savoir intégrer les indicateurs sans réduire la complexité de l’apprentissage à des métriques.
À mesure que les dispositifs deviennent plus intelligents, la responsabilité humaine ne diminue pas ; elle se déplace. Elle consiste moins à produire chaque ajustement qu’à décider de ce qui mérite d’être ajusté et pourquoi.
L’ajustement optimal peut être calculé. Le défi juste, lui, doit être discerné.
C’est peut-être là que réside l’art du pédagogue face à l’algorithme : non pas rivaliser avec la machine sur son propre terrain, mais maintenir ouverte la question du sens, afin que la technologie demeure un moyen et jamais la mesure ultime de ce qu’apprendre veut dire.
Illustration: L'art du pédagogue
Générée par l'IA (Canva) - Flavien Albarras
Références
Alhazbi, S., Al-ali, A., Tabassum, A., Al-Ali, A., Al-Emadi, A., Khattab, T., & Hasan, M. A. (2024). Using learning analytics to measure self-regulated learning : A systematic review of empirical studies in higher education. Journal of Computer Assisted Learning, 40(4), 1658‑1674. https://doi.org/10.1111/jcal.12982
Anderson, J., & Taner, G. (2023). Building the expert teacher prototype : A metasummary of teacher expertise studies in primary and secondary education. Educational Research Review, 38, 100485. https://doi.org/10.1016/j.edurev.2022.100485
Artino, A. R. (2012). Academic self-efficacy : From educational theory to instructional practice. Perspectives on Medical Education, 1(2), 76‑85. https://doi.org/10.1007/s40037-012-0012-5
Azevedo, R., Bouchet, F., Duffy, M., Harley, J., Taub, M., Trevors, G., Cloude, E., Dever, D., Wiedbusch, M., Wortha, F., & Cerezo, R. (2022). Lessons Learned and Future Directions of MetaTutor : Leveraging Multichannel Data to Scaffold Self-Regulated Learning With an Intelligent Tutoring System. Frontiers in Psychology, 13. https://doi.org/10.3389/fpsyg.2022.813632
Bandura, A. (1978). Self-efficacy : Toward a unifying theory of behavioral change. Advances in Behaviour Research and Therapy, Perceived Self-Efficacy: Analyses of Bandura’s Theory of Behavioural Change, 1(4), 139‑161. https://doi.org/10.1016/0146-6402(78)90002-4
Biggs, J. B. (1987). Student Approaches to Learning and Studying. Research Monograph. Australian Council for Educational Research Ltd. https://eric.ed.gov/?id=ED308201
de Vries, M. J., Feenberg, A., De Boever, A., & Hoel, A. S. (2015). Book Symposium on The Philosophy of Simondon : Between Technology and Individuation. Philosophy & Technology, 28(2), 297‑322. https://doi.org/10.1007/s13347-013-0144-5
Kosel, C., Bauer, E., & Seidel, T. (2024). Where experience makes a difference : Teachers’ judgment accuracy and diagnostic reasoning regarding student learning characteristics. Frontiers in Psychology, 15, 1278472. https://doi.org/10.3389/fpsyg.2024.1278472
Lan, M., & Zhou, X. (2025). A qualitative systematic review on AI empowered self-regulated learning in higher education. Npj Science of Learning, 10(1), 21. https://doi.org/10.1038/s41539-025-00319-0
Learning Analytics as a Metacognitive Tool: (2014). Proceedings of the 6th International Conference on Computer Supported Education, 380‑384. https://doi.org/10.5220/0004933203800384
Lodge, J. M., & Corrin, L. (2017). What data and analytics can and do say about effective learning. Npj Science of Learning, 2(1), 5. https://doi.org/10.1038/s41539-017-0006-5
Mai, L., Köchling, A., & Wehner, M. C. (2022). “This Student Needs to Stay Back” : To What Degree Would Instructors Rely on the Recommendation of Learning Analytics? SN Computer Science, 3(4), 259. https://doi.org/10.1007/s42979-022-01137-6
Marton, F., & Säljö, R. (1976). On Qualitative Differences in Learning : I—Outcome and Process. British Journal of Educational Psychology, 46(1), 4‑11. https://doi.org/10.1111/j.2044-8279.1976.tb02980.x
Perone, C. S. (2025, janvier 9). Notes on Gilbert Simondon’s “On the Mode of Existence of Technical Objects” and Artificial Intelligence | Terra Incognita. https://blog.christianperone.com/2025/01/notes-on-gilbert-simondons-on-the-mode-of-existence-of-technical-objects-and-artificial-intelligence/
Perrenoud, P., & Meirieu, P. P. (2026). La pédagogie différenciée : Des intentions à l’action. ESF éditeur.
Porayska-Pomsta, K., Holmes, W., & Nemorin, S. (2022). The Ethics of AI in Education. https://doi.org/10.4324/9780429329067
Raffaghelli, J. E., Manca, S., Stewart, B., Prinsloo, P., & Sangrà, A. (2020). Supporting the development of critical data literacies in higher education : Building blocks for fair data cultures in society. International Journal of Educational Technology in Higher Education, 17(1), 58. https://doi.org/10.1186/s41239-020-00235-w
Schön, D. A. (2017). The Reflective Practitioner : How Professionals Think in Action. Routledge. https://doi.org/10.4324/9781315237473
Schwarz, G., Christensen, T., & Zhu, X. (2022). Bounded Rationality, Satisficing, Artificial Intelligence, and Decision-Making in Public Organizations : The Contributions of Herbert Simon. Public Administration Review, 82(5), 902‑904. https://doi.org/10.1111/puar.13540
Selwyn, N., & Gašević, D. (2020). The datafication of higher education : Discussing the promises and problems. Teaching in Higher Education, 25(4), 527‑540. https://doi.org/10.1080/13562517.2019.1689388
Simon, H. A. (1955). A Behavioral Model of Rational Choice. The Quarterly Journal of Economics, 69(1), 99‑118. https://doi.org/10.2307/1884852
Simon, H. A. (1981). The sciences of the artificial.
Simon, H. A. (1991). Bounded Rationality and Organizational Learning. Organization Science, 2(1), 125‑134.
Simondon, G., Mellamphy, N., Mellamphy, D., & Mellamphy, N. B. (2011a). On the Mode of Existence of Technical Objects. Deleuze Studies, 5(3), 407‑424.
Simondon, G., Mellamphy, N., Mellamphy, D., & Mellamphy, N. B. (2011b). On the Mode of Existence of Technical Objects. Deleuze Studies, 5(3), 407‑424.
Xue, H., & Lin, L. (2026). The ethics of artificial intelligence in education : Practices, challenges, and debates: by Wayne Holmes, Kaśka Porayska-Pomsta (Eds.), New York, Routledge, 2023, XXIII+288 pp., £139.21 (hardcover), ISBN: 978-0-367-34971-4. Journal of Education for Teaching, 0(0), 1‑4. https://doi.org/10.1080/02607476.2026.2634972
You, X., & Hands, D. (2019). A Reflection upon Herbert Simon’s Vision of Design in The Sciences of the Artificial. The Design Journal, 22(sup1), 1345‑1356. https://doi.org/10.1080/14606925.2019.1594961