Mieux apprendre grâce à une réflexion intelligente
Réfléchir, c’est bien plus que tenir un journal : c’est une démarche structurée qui aide les étudiant·e·s à transformer leurs expériences en connaissances. Dans le cadre du cours Gestion des processus du programme de bachelor Digital Business and AI dispensé par le Prof. Dr. Thiemo Wambsganss, les étudiant·e·s ont rédigé, à la fin de chaque semaine, un court texte de réflexion. La consigne était simple : « Repense à la dernière séance de cours : quels contenus ou moments t’ont particulièrement interpellé·e·s ou posé un défi ? » Pendant six semaines, 40 étudiant·e·s ont rédigé leurs réflexions hebdomadaires – en utilisant pour la première fois à la BFH le système de coaching assisté par intelligence artificielle Rflect.ch.
Introduction
L’écriture réflexive aide les étudiantes et étudiants à mieux comprendre leurs expériences d’apprentissage et à les analyser de manière critique. Cependant, une réflexion profonde peut s’avérer difficile pour beaucoup lorsqu’un cadre structuré fait défaut. C’est précisément là que s’inscrit le projet commun du Human-Centered AI Learning Systems (HAIS) Lab [1] de la Haute école spécialisée bernoise (Léane Wettstein, Thiemo Wambsganss, Roman Rietsche) et de la startup Rflect [2]. Sur la base d’un projet antérieurement financé par le canton (BeLearn) [3], nous avons étudié comment le coaching assisté par IA influence le processus de réflexion, le sentiment d’autoefficacité et la compétence perçue en matière de réflexion [4] .
Pourquoi un encadrement réflexif est important
Écrire transforme les expériences en connaissances durables. La recherche, depuis des décennies, démontre que la réflexion structurée renforce la métacognition et le développement professionnel. Pourtant, de nombreux écrits restent descriptifs. Le retour personnalisé s’avère utile (voir Chan & Lee 2022), mais les enseignant·e·s manquent souvent de temps pour l’offrir. L’intelligence artificielle peut offrir un soutien évolutif, à condition que les retours soient pédagogiquement pertinents et s’intègrent harmonieusement dans le processus de réflexion (p. ex., Neshaei et al. 2025).
Objectifs et méthodologie
Pour examiner le rôle du feedback IA, nous avons intégré l’application « Rflect » dans le cours Gestion des processus du bachelor en Digital Business & AI. Environ 40 étudiantes et étudiants ont rédigé pendant six semaines des textes réflexifs selon le cycle de Gibbs (1988) – six étapes : description, ressentis, évaluation, analyse, conclusion, plan d’action.
Avant la première saisie, nous avons administré un questionnaire préalable pour mesurer deux variables clés :
- Autoefficacité selon Bandura (1997)
- Compétence perçue en réflexion, selon le cycle de Gibbs (1988)
Chaque semaine, les participantes et participants rédigeaient leur réflexion dans l’application, en référence à la séance antérieure. Ils pouvaient ensuite activer le bouton « Go Deeper » pour obtenir un feedback généré automatiquement. Cet accompagnement était fourni par plusieurs agents développés de manière centrée utilisateur, et consistait en questions ouvertes incitant à approfondir, telles que : « Quelle explication alternative pourrait expliquer ton observation ? » L’objectif étant d’encourager la révision du texte. Après six semaines et six réflexions hebdomadaires, nous avons réévalué les deux variables et collecté des retours qualitatifs pour mieux comprendre l’impact du feedback IA sur le processus réflexif et la trajectoire d’apprentissage.
Fonctionnement du coaching IA
Plutôt que de formuler des corrections, le système imitait un coach à l’aide d’un grand modèle de langage (GPT4o mini). Un agent identifiait d’abord quelles étapes du cycle de Gibbs étaient déjà présentes dans le texte. Un second agent proposait ensuite une question ouverte ciblée, renforçant ainsi la réflexion. Les prompts à l’origine du système ont été conçus via une démarche centrée utilisateur : entretiens, ateliers avec experts, collecte de données et itérations sur les modèles.
Résultats principaux
Après six semaines, les étudiantes et étudiants ont rapporté une augmentation significative de leur sentiment d’autoefficacité : la moyenne a grimpé d’environ 26 % (p < .001). De même, la compétence perçue en matière de réflexion a progressé d’environ 15 % (p = .017). Les retours ont également fourni des enseignements précieux :
Certains auraient souhaité davantage d’options de mise en forme pour structurer librement leurs textes (« Plus de fonctions comme dans OneNote pour du texte manuscrit »).
Plusieurs ont apprécié l’outil (« Je le trouve très bien et complet », « Tout était assez clair »), tandis que d’autres ont réclamé plus de transparence quant au fonctionnement du système, en particulier l’intégration de l’IA (« On ne sait pas ce qui est jugé ‘positif’ ni comment améliorer son score », « Expliciter davantage les fonctions comme ‘Go Deeper’ »).
Implications pour l’enseignement
Le coaching IA ne remplace pas l’accompagnement humain, mais peut libérer du temps des enseignant·e·s et offrir un soutien individuel immédiat. Grâce à un feedback formulé de manière ouverte, les apprenant·e·s gardent la main sur leur réflexion, tout en bénéficiant d’une orientation externe. Cela s’avère particulièrement utile dans les grands groupes de bachelors : le risque de corrections erronées est nul puisque le feedback est facultatif et peut être ignoré, préservant ainsi l’autonomie dans le processus d’apprentissage.
Trois recommandations pour les enseignant·e·s
- Privilégier l’écriture réflexive, un exercice adaptable à tout cours et contexte ; le coaching IA la rend plus interactive et renforce l’autoefficacité des étudiant·e·s.
- Planifier du temps en présentiel pour la réflexion : dans notre cas, utilisation hebdomadaire à la fin de chaque séance, ce qui a maintenu motivation et engagement. Nous avons également proposé une discussion de groupe en début de la séance suivante, permettant de prolonger et approfondir la réflexion.
- Proposer des consignes axées sur le processus d’apprentissage, favorisant une réflexion sur les styles d’apprentissage et la formulation de conclusions générales sur celui-ci.
Références
[1] www.haislab.com
[2] www.rflect.ch
[3] https://belearn.swiss/en/projekt/exploring-the-effects-of-conversational-agents-on-learners-reflective-writing/
[4] Cette étude s’inscrit dans le cadre d’un projet Innosuisse plus vaste, dirigé par Roman Rietsche et Thiemo Wambsganss, intitulé « Écriture réflexive pour le développement personnel : exploiter l’IA pour passer du projet pilote à l’échelle », financé par l’Agence suisse pour l’innovation.
Bandura, A. (1997). Self-efficacy: The exercise of control. W H Freeman/Times Books/ Henry Holt & Co.
Cecilia KY Chan and Katherine WT Lee. (2021). Reflection literacy: A multilevel perspective on the challenges of using reflections in higher education through a comprehensive literature review. Educational Research Review 32 , 100376. https://doi.org/10.1016j.edurev.2020.100376
Graham Gibbs. (1988). Learning by doing: A guide to teaching and learning methods. Further Education Unit Publisher: Oxford Polytechnic.
Seyed Parsa Neshaei, Thiemo Wambsganss, Hind El Bouchrifi, and Tanja Käser. (2025). MindMate: Exploring the Effect of Conversational Agents on Reflective Writing. In Proceedings of the Extended Abstracts of the CHI Conference on Human Factors in Computing Systems (CHI EA ’25). Association for Computing Machinery, New York, NY, USA, Article 397, 1–9. https://doi.org/10.1145/3706599.3720029

Laisser un commentaire
Rejoindre la discussion?N’hésitez pas à contribuer !