Actualités

Publié le 10 avril 2026 Mis à jour le 15 avril 2026

L'évaluation des enseignements par les étudiants

Un décalage entre le cadre et la réalité

Enseignant - Shutterstock - 2710545427

L'EEE est obligatoire depuis 2014, exigée par toutes les accréditations, et pourtant elle reste, dans beaucoup
d'établissements, un exercice formel dont les résultats ne débouchent sur rien. Comment passer du questionnaire subi à un dispositif qui transforme les pratiques ?

Un décalage persistant entre le cadre et la réalité

L'évaluation des enseignements par les étudiants (EEE) fait partie du paysage réglementaire français depuis l'arrêté du 22 janvier 2014, qui impose aux établissements d'enseignement supérieur d'organiser des « enquêtes régulières auprès des étudiants » (articles 5 et 15). La formulation n'est pas anodine : elle exclut la démarche ponctuelle et suppose une récurrence institutionnalisée.

Le HCERES a renforcé cette exigence. Dans son référentiel Vague E 2024-2025, l'évaluation des formations et l'amélioration continue des enseignements figurent parmi les trois domaines structurants de l'évaluation des établissements. Les évaluateurs ne se contentent pas de vérifier l'existence d'un questionnaire. Ils recherchent des données pluriannuelles, des exemples documentés d'ajustements pédagogiques issus des retours étudiants, et l'intégration de ces résultats dans les instances de gouvernance — conseils de perfectionnement en tête.

Du côté des écoles de commerce et d'ingénieurs, les accréditations AACSB, EQUIS, CEFDG et CTI convergent sur le même point. Le rapport 2024 State of Accreditation de l'AACSB souligne que les équipes d'évaluation examinent de plus en plus les preuves tangibles d'amélioration continue. La CTI, dans ses Références et Orientations (édition 2024), attend des preuves que les retours étudiants ont conduit à des ajustements pédagogiques, et non simplement des formulaires remplis.

Le cadre est donc clair et convergent. Mais dans la pratique, le constat reste celui d'un dispositif qui tourne souvent à vide : taux de participation faibles (entre 15 et 30 % dans de nombreux établissements), résultats restitués sous forme de scores bruts sans accompagnement, verbatims inexploités faute de temps, et absence de retour visible vers les étudiants.

Ce que la littérature scientifique nous apprend sur la validité de l'EEE

La question de savoir si les étudiants sont en mesure d'évaluer la qualité d'un enseignement a fait l'objet d'une abondante littérature, notamment dans les pays anglophones où la pratique est institutionnalisée depuis les années 1970. Seldin (1993), dans une étude portant sur 600 collèges américains, montre que 29 % d'entre eux utilisaient l'EEE en 1973, 68 % en 1983, et 86 % en 1993. En Europe francophone, la diffusion a été sensiblement plus lente : l'EEE ne s'est véritablement généralisée en France qu'après l'arrêté de 2014 (Bernard, Postiaux & Salcin, 2000).

Sur la validité, la recherche apporte une réponse nuancée. Les étudiants évaluent de manière fiable les dimensions qu'ils peuvent observer directement : clarté des objectifs, organisation du cours, qualité de la relation pédagogique, pertinence des supports. Ces dimensions sont corrélées à l'engagement étudiant et à la satisfaction d'apprentissage.

La limite principale concerne le lien entre évaluation et apprentissage réel. Carrell et West (2010), dans une étude menée à l'Académie militaire de West Point avec assignation aléatoire des étudiants aux enseignants, montrent que les professeurs les mieux évalués à court terme produisent parfois de moins bons résultats dans les cours suivants, lorsque les étudiants doivent mobiliser les connaissances acquises. L'EEE capture la satisfaction immédiate, pas nécessairement la profondeur de l'apprentissage.

Plusieurs biais systématiques ont été documentés. MacNell et al. (2015), dans une expérience portant sur des cours en ligne, ont mis en évidence un biais de genre : les enseignants identifiés comme masculins recevaient de meilleures évaluations indépendamment de la qualité réelle de l'enseignement. Johnson (2003) estime que la générosité dans la notation peut expliquer 20 à 30 % de la variance dans les scores d'évaluation — ce qui crée une incitation perverse à l'indulgence. L'effet « Dr. Fox », décrit par Naftulin, Ware et Donnelly (1973), montre qu'un enseignant expressif et charismatique peut obtenir d'excellentes évaluations avec un contenu délibérément incohérent.

Ces résultats ne disqualifient pas l'EEE. Ils signifient qu'un score brut, isolé, n'est pas interprétable sans contextualisation ni accompagnement.

Quatre conditions pour qu'une EEE produise des effets

La littérature converge sur quatre conditions nécessaires (Lanarès, 2009 ; Dejean, 2002).

Première condition : préparer les étudiants à évaluer. Sans explication préalable sur ce que recouvre la qualité d'un enseignement et sur l'usage qui sera fait de leurs retours, les évaluations reflètent des impressions immédiates plutôt que des jugements informés.

Deuxième condition : formuler des items observables et peu ambigus. Un critère comme « L'enseignant a utilisé des exemples concrets pour illustrer les concepts » est plus exploitable qu'un « Le cours était intéressant ». La co-construction des critères avec les étudiants en début de semestre, pratique encore émergente, améliore à la fois la pertinence des items et le taux de participation.

Troisième condition : restituer les résultats avec un accompagnement. Piccinin (1999) a montré qu'un entretien de 30 minutes avec un conseiller pédagogique après réception des résultats produit un effet mesurable et durable sur les pratiques enseignantes. Sans cet accompagnement, la consultation des scores n'a quasiment aucun impact.

Quatrième condition : rendre visible l'impact des retours. Les établissements qui communiquent chaque année sur les modifications apportées grâce aux évaluations observent des taux de participation significativement plus élevés. C'est une boucle de confiance : les étudiants investissent du temps dans l'évaluation s'ils constatent que leur parole a des effets.

Au-delà du questionnaire de fin de semestre

Le questionnaire distribué en fin de semestre est l'outil le plus répandu, mais il souffre d'une limite structurelle : il arrive trop tard pour que les étudiants concernés bénéficient des ajustements. Plusieurs approches complémentaires permettent d'enrichir la démarche.

Les sondages courts à mi-parcours (deux ou trois questions) permettent des ajustements en temps réel. Le format « une chose qui aide mon apprentissage / une chose qui le freine » fournit des données exploitables en quelques minutes. L'autoévaluation des compétences par les étudiants, mesurée en amont et en aval de la formation, permet d'estimer l'impact perçu de l'enseignement sur l'acquisition de compétences. L'observation croisée entre pairs enseignants, encadrée par une charte de bienveillance, constitue un regard calibré et complémentaire aux retours étudiants.

L'enjeu, pour les établissements, est de passer d'un dispositif mono-source (un questionnaire, un moment, un profil de répondant) à un dispositif multi-sources, articulant plusieurs regards et plusieurs temporalités.

Ce que la numérisation rend possible

La généralisation des LMS (Moodle, Blackboard, Canvas) a créé une infrastructure favorable à la dématérialisation de l'EEE. Les plateformes dédiées s'y intègrent via le protocole LTI, ce qui supprime la friction liée à la création de comptes et à la diffusion manuelle des questionnaires.

Les gains sont documentés : diffusion automatique au bon moment, relances programmées (qui augmentent les taux de participation de 15 à 25 points en moyenne), clôture automatique et génération instantanée des synthèses, gestion simultanée de centaines de cours sans équipe dédiée.

Les fonctionnalités d'enquête intégrées aux LMS (Moodle Questionnaire, Survey dans Blackboard) couvrent les besoins basiques. Mais pour des établissements qui souhaitent diversifier les scénarios d'évaluation, analyser les verbatims à grande échelle ou produire des restitutions contextualisées, ces outils montrent rapidement leurs limites.

C'est dans cet espace que se positionnent les plateformes spécialisées. ChallengeMe, par exemple, utilisé par plus de 100 établissements en France, Belgique, Suisse et Canada, propose une approche qui dépasse le questionnaire unique. La plateforme permet de scénariser l'évaluation en combinant plusieurs phases (sondage à mi-parcours, évaluation complète, autoévaluation étudiante, autoévaluation enseignante) et de croiser les perspectives dans un rapport de synthèse anonymisé. L'intégration d'une couche d'intelligence artificielle permet de traiter automatiquement les verbatims : regroupement thématique, quantification des mentions, filtrage des commentaires inappropriés, et production d'une synthèse structurée lisible en quelques minutes — là où le traitement manuel de 400 commentaires prendrait plusieurs heures.

Ce type d'outil ne remplace pas la réflexion pédagogique. Mais il libère du temps pour qu'elle puisse avoir lieu, en supprimant les frictions logistiques et en rendant les données exploitables.

Vers des restitutions adaptées au niveau de décision

Une piste de développement concerne la personnalisation des restitutions selon le destinataire. Aujourd'hui, le même jeu de données sert à l'enseignant qui veut améliorer son cours et à la direction qui prépare un dossier d'accréditation — ce qui oblige chacun à recompiler l'information selon ses besoins.

Plusieurs plateformes travaillent sur des agents IA capables de produire des rapports différenciés : un rapport par cours pour l'enseignant (avec comparaison à ses propres résultats antérieurs et suggestions contextualisées), une vue consolidée par programme pour le responsable pédagogique, et des tableaux de bord institutionnels pour la direction. L'intérêt tient à l'effet cumulatif : plus un établissement utilise le dispositif dans la durée, plus les analyses gagnent en finesse grâce à l'historique accumulé.

De la conformité à la culture pédagogique

L'évaluation des enseignements est à un carrefour. Le cadre réglementaire et les accréditations en font une obligation. La recherche en a documenté les forces, les limites et les conditions de réussite. Les outils numériques rendent possible ce qui était logistiquement irréaliste il y a dix ans.

Ce qui fait la différence entre un dispositif formel et un dispositif qui change quelque chose, c'est la capacité de l'établissement à tenir ensemble trois exigences : un cadre institutionnel rigoureux, un accompagnement des enseignants dans l'appropriation des résultats, et la confiance des étudiants dans le fait que leur parole a du poids. C'est à cette condition que l'EEE cesse d'être une case à cocher.


Références

Bernard H., Postiaux N. & Salcin A. (2000). Les paradoxes de l'évaluation de l'enseignement universitaire. Revue des sciences de l'éducation, 26(3), 625-650.

Carrell S. & West J. (2010). Does Professor Quality Matter? Evidence from Random Assignment of Students to Professors. Journal of Political Economy, 118(3), 409-432.

Dejean J. (2002). L'évaluation de l'enseignement dans les universités françaises. Rapport HCERE.

Johnson V.E. (2003). Grade Inflation: A Crisis in College Education. Springer.

Lanarès J. (2009). Les mythes de l'évaluation des enseignements par les étudiants. Université de Lausanne, Centre de soutien à l'enseignement.

MacNell L. et al. (2015). What's in a Name: Exposing Gender Bias in Student Ratings of Teaching. Innovative Higher Education, 40(4), 291-303.

Naftulin D.H., Ware J.E. & Donnelly F.A. (1973). The Doctor Fox Lecture. Journal of Medical Education, 48(7), 630-635.

Piccinin S. (1999). How individual consultation affects teaching. New Directions for Teaching and Learning, 79, 71-83.

Seldin P. (1993). The use and abuse of student ratings of professors. The Chronicle of Higher Education.

Visiter challengeme.online


Voir plus de nouvelles de cette institution
ChallengeMe

77 avenue du pont Juvenal
34000 Montpellier
France

Contacter

Voir le profil

Le fil RSS de Thot Cursus - Besoin d'un lecteur RSS ? FeedBinFeedly , NewsBlur


Les messages de Thot sur BlueSky



Superprof : la plateforme pour trouver les meilleurs professeurs particuliers en France (mais aussi en Belgique et en Suisse)


Réviser le Code de la route



Recevez notre Dossier de la semaine par courriel

Restez informé sur l’apprentissage numérique sous toutes ses formes. Des idées et des ressources intéressantes. Profitez-en, c’est gratuit !