Introduction : Enjeux de la satisfaction des apprenants en formation
Dans le domaine de la formation professionnelle en France, la satisfaction des apprenants est un indicateur clé de la qualité pédagogique. Assurer un haut niveau de satisfaction n’est pas seulement une question de prestige : cela conditionne le succès des formations, la motivation des stagiaires et in fine le développement des compétences. Les organismes de formation – qu’il s’agisse de centres de formation ou de formateurs indépendants – doivent donc porter une attention particulière aux retours de leurs apprenants. En effet, un apprenant satisfait est plus enclin à s’investir, à recommander la formation à ses pairs1 et à réutiliser les acquis de la formation dans sa pratique professionnelle2. À l’ère du digital learning et de l’apprentissage tout au long de la vie, optimiser la satisfaction des apprenants devient un levier stratégique : non seulement pour l’image de marque de l’organisme, mais aussi pour répondre aux exigences croissantes en matière de qualité (par exemple la certification Qualiopi) et aux attentes des financeurs publics ou mutualisés.
Pourtant, mesurer cette satisfaction ne peut se résumer à faire remplir un simple questionnaire à chaud en fin de formation. Ce traditionnel questionnaire de fin de formation – aussi appelé évaluation « à chaud » – a certes son utilité, mais il ne doit être qu’une première étape. Cet article propose d’examiner les limites de ces évaluations immédiates et d’explorer les méthodes permettant d’aller au-delà du questionnaire de fin de formation. Nous verrons comment recueillir un feedback plus riche et continu de la part des apprenants, et comment utiliser ces retours pour améliorer en permanence vos offres de formation tout en garantissant une qualité constante. Dans cette perspective, nous mobiliserons des références académiques sur la formation des adultes (p. ex. principes de pédagogie et andragogie selon Malcolm Knowles, modèles d’apprentissage expérientiel selon Kolb, etc.), ainsi que des sources officielles (rapports de la DARES, de l’OCDE, textes réglementaires) afin d’appuyer une réflexion rigoureuse et fouillée.
Pourquoi aller au-delà du questionnaire de satisfaction à chaud ?
Le questionnaire de satisfaction remis « à chaud » aux participants à la fin d’une formation est devenu un standard. Il mesure généralement la réaction immédiate des apprenants face à la formation3 (agrément, perception de la qualité du formateur, des supports, de l’organisation, etc.). Cet outil présente l’avantage d’être simple à administrer et de fournir un retour quasi instantané. D’après une enquête officielle menée par la DARES et France Compétences, la grande majorité des participants se déclarent satisfaits de leur formation juste après l’avoir suivie : par exemple, 94 % des personnes interrogées se disent satisfaites de la qualité des formateurs qu’ils ont eus1. De même, 86 % des apprenants ayant mobilisé leur CPF recommanderaient la formation suivie à un proche – un indicateur de satisfaction élevé et relativement homogène selon les types de formations (de 81 % à 95 % de recommandation positive)4. Ces chiffres illustrent que les évaluations à chaud donnent souvent une image très positive de la formation.
Cependant, une évaluation positive ne préfigure pas un apprentissage réussi3. En d’autres termes, le fait qu’un apprenant ait apprécié la formation sur le moment ne garantit ni qu’il a effectivement appris, ni qu’il pourra transférer ces acquis en situation de travail. Plusieurs limites du questionnaire de fin de formation doivent être soulignées :
- Biais temporel et émotionnel : l’évaluation à chaud recueille un ressenti à court terme, potentiellement influencé par l’ambiance du dernier jour, la personnalité du formateur, ou même par un biais de politesse. Ce ressenti immédiat peut s’estomper ou évoluer avec le temps. Un contenu jugé « satisfaisant » sur le coup pourrait paraître insuffisant quelques mois plus tard, une fois confronté à la réalité du poste de travail.
- Portée limitée des questions : les questionnaires de satisfaction standard abordent généralement des items comme l’organisation logistique, la clarté des supports, l’animation, etc.5. Ils mesurent le degré d’appréciation subjective de ces aspects. En revanche, ils évaluent rarement l’atteinte des objectifs de formation ou la montée en compétences réelle de l’apprenant. Leur focus est plus sur la qualité perçue que sur l’efficacité pédagogique effective.
- Absence de recul sur la mise en pratique : juste à la fin de la formation, l’apprenant n’a pas encore eu l’occasion d’essayer de mettre en œuvre ce qu’il a appris. Il ne peut donc pas juger de la pertinence à long terme de la formation. Une formation peut sembler satisfaisante sur le moment, mais si les nouvelles compétences ne peuvent pas être appliquées par la suite (faute d’occasions ou de conditions adéquates), la satisfaction rétrospective de l’apprenant risque de diminuer. Des données récentes montrent par exemple que quelques mois après une formation, seuls 64 % des apprenants déclarent utiliser les compétences acquises, tandis que 5 % estiment qu’ils ne les utiliseront pas du tout6. Ce décalage souligne qu’il est essentiel d’évaluer l’utilité perçue de la formation après coup.
En somme, le questionnaire de fin de formation offre une photographie instantanée de la réaction des apprenants, utile pour détecter d’éventuels problèmes flagrants (organisation défaillante, formateur peu clair, etc.) et pour satisfaire à certaines obligations de mesure de la satisfaction. Mais il ne suffit pas à lui seul à mesurer l’efficacité globale d’une action de formation ni à engager une amélioration continue en profondeur. Aller au-delà, c’est compléter cette première impression par d’autres approches d’évaluation à froid, qualitative et quantitative, afin d’obtenir une vision plus complète et plus fiable.
Diversifier les modalités de feedback : vers une évaluation continue
L’évaluation « à chaud » et « à froid »
Pour dépasser les limites de l’évaluation immédiate, une bonne pratique consiste à mettre en place deux temps de recueil de feedback complémentaires : l’évaluation à chaud et l’évaluation à froid. Ces deux approches s’inscrivent dans les modèles reconnus de l’ingénierie pédagogique et de l’évaluation de la formation (notamment le modèle de Kirkpatrick).
- Évaluation à chaud : réalisée immédiatement en fin de formation, elle correspond au questionnaire de satisfaction classique. On y sonde le ressenti global du participant, son appréciation de la formation (contenu, formateur, méthodes pédagogiques, environnement matériel, etc.) et parfois son auto-évaluation de l’atteinte des objectifs à court terme. C’est le niveau 1 du modèle de Kirkpatrick, dit « évaluation des réactions »3. Ce niveau est facile à mettre en œuvre et indispensable pour recueillir le feedback immédiat des apprenants, tant positif que négatif. Il permet par exemple de détecter rapidement si un module a été mal perçu. Toutefois, comme indiqué précédemment, ce niveau 1 reste superficiel : Kirkpatrick lui-même souligne qu’une satisfaction élevée n’implique pas nécessairement un apprentissage effectif3.
- Évaluation à froid : réalisée quelques semaines ou mois après la formation, elle vise à mesurer la durabilité des acquis et leur transfert en situation de travail. On interroge alors l’apprenant sur ce qu’il est effectivement advenu de la formation : A-t-il pu appliquer les compétences ou connaissances apprises ? Quels résultats ou changements a-t-il observés ? Se sent-il toujours aussi satisfait de la formation avec le recul ? Ce type d’évaluation correspond aux niveaux 3 et 4 du modèle de Kirkpatrick (changement de comportement et résultats) et, dans une moindre mesure, au niveau 2 (l’apprenant a-t-il retenu/assimilé quelque chose)7, 8. Concrètement, l’évaluation à froid peut prendre la forme d’un questionnaire envoyé en ligne quelques mois après la formation, ou d’un entretien téléphonique. Les questions portent par exemple sur la fréquence d’utilisation des nouvelles compétences, les obstacles rencontrés pour les mettre en pratique, l’impact sur la performance ou l’évolution professionnelle. Ce retour différé fournit des résultats souvent plus objectifs et concrets que l’évaluation à chaud, notamment pour juger si la formation a atteint ses objectifs à long terme et produit un impact tangible. Il est notable que de nombreux professionnels estiment que « l’évaluation à froid permet d’obtenir des résultats plus objectifs dans la majorité des cas », car l’apprenant a alors assez de recul pour évaluer l’efficacité réelle de la formation9.
Mettre en place une évaluation à froid demande un certain suivi (relancer les participants, éventuellement impliquer leurs responsables hiérarchiques dans l’évaluation du changement de comportement). Mais c’est un investissement indispensable pour qui veut améliorer la qualité des formations au-delà du simple ressenti initial. Plusieurs OPCO (opérateurs de compétences) ou organismes publics promeuvent d’ailleurs cette pratique. Par exemple, l’OPCO AKTO propose des questionnaires types à froid où l’on demande aux anciens stagiaires s’ils mettent en pratique les acquis et quels freins ils rencontrent s’ils ne le font pas10, 11. Ces informations sont précieuses pour identifier les ajustements à apporter : si de nombreux apprenants citent le manque de soutien managérial comme frein, cela indique qu’il faudrait mieux impliquer les employeurs en amont ; si certains estiment que « le contenu de la formation ne correspond pas à mon travail »12, c’est un signal pour retravailler le ciblage des besoins en amont ou le référentiel de compétences couvert par la formation.
Multiplier les sources de feedback qualitatives
Outre les questionnaires à chaud/froid quantitatifs, il est recommandé de diversifier les méthodes de recueil du feedback afin d’obtenir une vision plus riche et nuancée de la satisfaction des apprenants :
- Discussions de groupe et interviews individuelles : Organiser une réunion de bilan quelques jours après la formation (en présentiel ou en visioconférence) permet de donner la parole aux apprenants de façon plus libre. Lors d’un échange collectif, les participants peuvent rebondir sur les idées des uns et des autres, ce qui fait émerger des informations qualitatives difficiles à capturer par questionnaire (ressenti sur la dynamique de groupe, suggestions très précises d’amélioration, etc.). De même, proposer à certains apprenants un entretien individuel confidentiel (par exemple pour les formations longues ou stratégiques) peut encourager des retours plus francs sur ce qui a plu ou déplu.
- Feedback en continu pendant la formation : Ne pas attendre la fin pour ajuster le tir. Les formateurs peuvent instaurer des rituels de feedback au fil de l’eau, même dans une formation courte : par exemple un tour de table rapide en fin de journée (« Qu’est-ce qui vous a le plus été utile aujourd’hui ? Un point à éclaircir pour demain ? »), ou l’utilisation de petits sondages anonymes en ligne après chaque module (via des outils de digital learning interactifs). Cette évaluation formative bénéficie autant aux apprenants (qui voient que leur avis compte et que le formateur s’adapte à leurs besoins) qu’au formateur (qui peut rectifier une méthode moins efficace dès le lendemain plutôt que de découvrir les insatisfactions une fois la formation terminée).
- Observations et retours terrain : Dans le cas de formations pratiques ou en situation de travail, il est pertinent de recueillir aussi le point de vue d’observateurs : par exemple le tuteur en entreprise qui accompagne un apprenant dans le cadre d’une AFEST (Action de Formation en Situation de Travail) pourra fournir un retour sur l’engagement et la progression de l’apprenant tout au long du parcours. L’AFEST elle-même intègre des phases réflexives pendant lesquelles l’apprenant, guidé par son formateur/tuteur, prend du recul sur ce qu’il vient de réaliser13, 14. Ces moments sont propices pour discuter de la compréhension et du ressenti de l’apprenant en temps réel, bien avant le questionnaire final. Ce feedback intégré au processus pédagogique est l’un des atouts de l’AFEST : il permet d’ajuster immédiatement le parcours de formation individualisé, ce qui améliore in fine la satisfaction, l’autonomie d’apprentissage et la réussite de l’apprenant15, 16.
- Analyses de données d’apprentissage (learning analytics) : Dans le contexte du e-learning ou du blended learning, les plateformes numériques offrent également des données objectives sur le comportement des apprenants (taux de complétion des modules, temps passé, quiz réussis ou non, etc.). Ces indicateurs ne sont pas à proprement parler du « ressenti », mais ils peuvent être mis en regard de la satisfaction déclarée. Par exemple, si un module en ligne présente un taux d’abandon élevé, cela peut traduire une insatisfaction implicite (contenu jugé peu intéressant, trop difficile, ou problèmes techniques). En sondant ensuite les apprenants, on pourra confirmer les causes de cet abandon. Les outils SaaS de gestion de formation (LMS, etc.) – comme ceux qu’Argalis propose à ses clients organismes de formation – permettent de centraliser ces retours multiples (questionnaires, commentaires libres, données d’usage) pour chaque session de formation. Une vision 360° de l’expérience apprenant se dessine alors, donnant aux responsables formation des leviers d’action beaucoup plus puissants que le seul questionnaire final.
De la mesure à l’action : utiliser le feedback pour améliorer vos offres
Récolter du feedback n’est que la première étape. L’enjeu crucial est d’analyser ces données et de les traduire en actions concrètes d’amélioration. Une satisfaction élevée doit être consolidée, une satisfaction moyenne ou faible doit être interrogée pour identifier les axes de progrès. C’est ici qu’intervient la logique de l’amélioration continue, au cœur des démarches qualité modernes.
Analyser finement les retours des apprenants
Un feedback bien exploité est une mine d’or pour l’ingénierie pédagogique. Il convient de procéder à une analyse quantitative et qualitative rigoureuse :
- Traitement quantitatif : Calculer des indicateurs de satisfaction globaux et par critère. Par exemple : le taux de satisfaction moyen (pourcentage d’apprenants se déclarant satisfaits ou très satisfaits), la note moyenne sur 10 ou sur 5, le Net Promoter Score (NPS) lorsqu’il est utilisé (question « Recommanderiez-vous cette formation ? »). Ces indicateurs peuvent être ventilés par formateur, par module, par type de public, etc., afin de détecter des variations significatives. Une baisse du taux de satisfaction d’une session à l’autre est un signal d’alarme à investiguer. Inversement, un score exceptionnellement élevé sur un critère (ex : 100 % de satisfaits sur la qualité des supports) peut indiquer une bonne pratique à généraliser.
- Analyse qualitative : Il est essentiel de lire attentivement les commentaires libres laissés par les apprenants dans les questionnaires, ainsi que les verbatim issus d’entretiens. Ces verbatim contiennent souvent des suggestions précieuses ou des explications nuancées derrière les notes chiffrées. Par exemple : « J’aurais souhaité plus d’exercices pratiques », « Le rythme était trop intense sur la fin », « Le module en e-learning précédent la formation présentielle m’a beaucoup aidé », etc. Classer ces commentaires par thème (contenu, pédagogie, organisation, attentes non couvertes, etc.) permet de faire ressortir les tendances de fond. Il peut être utile d’utiliser des outils d’analyse textuelle pour repérer les mots clés fréquents (par exemple “rythme”, “supports”, “pratique insuffisante”, “trop théorique”…). Chaque critique constructive mérite d’être examinée par l’équipe pédagogique.
- Comparer satisfaction et performance : Croiser les résultats de satisfaction avec d’autres données de réussite de la formation. Un exemple parlant est le suivant : si une formation diplômante obtient d’excellents retours de satisfaction mais que le taux de réussite à l’examen final est faible, il y a un problème d’efficacité. Ou inversement, un taux de réussite excellent accompagné de retours mitigés sur la satisfaction peut révéler que les apprenants ont trouvé la formation éprouvante ou rébarbative malgré son efficacité. L’idéal est de viser le double objectif d’efficacité et de satisfaction, mais les écarts fournissent un diagnostic précieux. De même, on peut comparer la satisfaction déclarée à chaud et à froid : une baisse notable de satisfaction après quelques mois (par exemple, des apprenants initialement contents mais qui plus tard se disent finalement déçus de la formation) signale un défaut dans la promesse de la formation ou dans son adaptation aux besoins réels.
Boucler la boucle : amélioration continue et suivi
Collecter et analyser le feedback ne portera ses fruits que si l’organisme de formation met en œuvre des actions d’amélioration à partir de ces enseignements. Cette démarche structurée est d’ailleurs requise par la plupart des référentiels qualité du secteur. La certification Qualiopi, désormais obligatoire en France pour mobiliser des financements publics ou mutualisés, consacre un critère entier à ce sujet : « le recueil et la prise en compte des appréciations et des réclamations formulées par les parties prenantes » (critère 7 du référentiel national qualité)17. Plus précisément, l’indicateur 30 de Qualiopi exige que « le prestataire recueille les appréciations des parties prenantes : bénéficiaires, financeurs, équipes pédagogiques et entreprises concernées »18, et l’indicateur 32 stipule que « le prestataire met en œuvre des mesures d’amélioration à partir de l’analyse des appréciations et des réclamations »19. Autrement dit, la réglementation impose la boucle de rétroaction : on collecte les avis, puis on agit en conséquence pour améliorer la qualité.
Concrètement, comment affiner vos offres grâce au feedback ? Voici quelques exemples d’actions résultant d’une analyse de satisfaction :
- Adapter le contenu et la durée : Des retours indiquent que certaines parties du programme étaient trop denses ou trop théoriques ? L’équipe pédagogique peut revoir la séquence : alléger les exposés magistraux, intégrer plus d’exemples pratiques ou de mises en situation. À l’inverse, si beaucoup d’apprenants réclament l’approfondissement d’un sujet, il peut être pertinent de rallonger la formation ou de proposer un module additionnel (digital learning asynchrone, par exemple) pour traiter ce besoin. L’objectif est d’ajuster le référentiel pédagogique pour qu’il colle au plus près des attentes et des niveaux des apprenants.
- Améliorer les méthodes pédagogiques : Des apprenants peu engagés ou passifs pendant la formation ? Le feedback peut révéler qu’ils auraient souhaité des formats plus interactifs. Les formateurs pourront alors incorporer des méthodes actives (études de cas, travaux de groupe, simulations, AFEST en milieu de travail réel, etc.) plutôt que de rester sur un mode trop magistral. Les principes de l’andragogie nous rappellent que les adultes apprennent mieux lorsque l’enseignement est participatif, centré sur l’expérience et les problèmes concrets à résoudre. Suivre ces principes – inspirés par des experts comme Malcolm Knowles ou David Kolb – contribue fortement à augmenter la satisfaction, car les apprenants adultes se sentent respectés dans leur besoin d’autonomie et d’utilité immédiate.
- Renforcer l’accompagnement : Si le questionnaire à froid révèle que nombre d’apprenants n’ont pas pu mettre en pratique les acquis faute de soutien, cela peut conduire à mettre en place un suivi post-formation. Par exemple, proposer du coaching individuel après la formation, impliquer le manager de l’apprenant via un entretien tripartite (formateur-apprenant-manager) pour faciliter la transposition, ou encore créer une communauté en ligne où les anciens stagiaires peuvent poser des questions au formateur une fois de retour sur le terrain. Ce type d’initiative, en comblant l’écart entre la formation et l’application, améliore la satisfaction à long terme (l’apprenant ne se sent pas « abandonné » une fois la formation terminée).
- Optimiser l’organisation logistique : Parfois la satisfaction est entamée par des aspects périphériques (salle inadéquate, planning mal communiqué, problèmes d’inscription). Une récurrence de commentaires négatifs sur l’accueil ou les moyens matériels5 doit pousser à revoir ces points d’intendance. Cela peut paraître secondaire, mais une logistique bien huilée contribue à un environnement d’apprentissage serein, donc à la satisfaction. Inversement, des irritants logistiques peuvent gâcher la perception d’une formation pourtant de qualité sur le fond. L’expérience apprenant commence dès l’inscription et se prolonge jusqu’au suivi post formation : chaque étape compte.
- Valoriser et généraliser les facteurs de satisfaction : L’analyse fera ressortir ce que vos apprenants ont préféré. Identifiez vos “points forts” selon les apprenants (par exemple, un formateur X particulièrement plébiscité, ou une approche pédagogique innovante très appréciée). Mettez ces points en avant dans vos communications, et si possible étendez-les à d’autres formations. Par exemple, si un parcours blended combinant présentiel et e-learning obtient une satisfaction supérieure aux parcours 100 % présentiels, cela incite à développer cette modalité mixte ailleurs. De même, un taux de satisfaction très élevé sur un bilan de compétences particulier peut guider la conception d’offres similaires pour d’autres publics.
Il est aussi crucial de communiquer en interne sur les enseignements tirés du feedback. Les formateurs doivent recevoir un retour sur leurs évaluations (de manière constructive), les concepteurs pédagogiques doivent participer aux debriefings, la direction de l’organisme de formation doit être informée des tendances globales. Cette culture du feedback en interne crée un cercle vertueux : les équipes se sentent responsabilisées sur la qualité et sur l’atteinte d’une amélioration continue. On peut formaliser cela via des réunions qualité périodiques où l’on passe en revue les indicateurs clés (taux de satisfaction, taux de réussite, retours notables) et où l’on suit l’avancement des plans d’action décidés.
Enfin, fermer la boucle implique de parfois informer vos apprenants (passés ou futurs) des améliorations réalisées grâce à leurs retours. Par exemple, envoyer aux participants d’une session un bref email quelques mois plus tard : « Suite à vos retours, nous avons revu le module X de la formation pour l’enrichir d’exemples concrets supplémentaires. Merci de votre contribution à l’amélioration de nos programmes. » Cela montre que leur avis a de la valeur, ce qui encourage une culture de feedback honnête. De plus, pour les futurs apprenants, communiquer sur votre démarche qualité (sans trop de jargon) peut être un argument : un organisme à l’écoute de ses stagiaires, qui améliore continuellement ses formations, inspire confiance. À cet égard, des dispositifs publics comme ANOTEA – le système de notation en ligne géré par Pôle emploi – jouent un rôle de transparence : depuis 2017, les stagiaires peuvent noter anonymement les formations suivies et ces avis sont publiés pour aider les suivants à choisir20. Ce système offre aussi aux organismes un outil d’amélioration de l’offre en pointant ce qui va ou ne va pas dans leurs formations20. Dans ce contexte où les avis sont publics, garantir la satisfaction des apprenants devient encore plus vital pour l’attractivité de vos offres.
Conclusion : Vers une culture de la qualité centrée sur l’apprenant
« Mesurer et améliorer la satisfaction de vos apprenants » n’est pas un slogan, c’est une nécessité stratégique et une obligation morale pour tout organisme de formation sérieux. L’époque où l’on se contentait de faire signer la feuille de présence et de distribuer un questionnaire sommaire en fin de stage est révolue. Désormais, l’accent est mis sur l’expérience apprenant dans sa globalité, du premier contact jusqu’au transfert des acquis en situation professionnelle. Les exigences réglementaires comme Qualiopi ne font que refléter cette évolution de fond : il s’agit d’instaurer une véritable démarche qualité où l’apprenant, ses besoins, ses retours, occupent une place centrale.
Adopter une telle démarche signifie intégrer les principes suivants : écoute active des apprenants (à chaud, à froid, formellement et informellement), évaluation multi-niveaux de la formation (satisfaction, apprentissage, transfert, résultats), et amélioration continue des prestations (via des actions correctives ou innovantes). Cette approche s’inscrit dans la lignée des théories de l’andragogie qui encouragent à impliquer l’apprenant adulte dans son processus de formation, notamment en recueillant son avis et en le responsabilisant dans son apprentissage. Comme l’écrit un expert du domaine : « La satisfaction en formation est utile au processus d'amélioration, à condition de la remettre à sa juste place »21 – c’est-à-dire comme un outil au service de la qualité, et non comme une fin en soi. En dernière analyse, ce que cherchent les organismes de formation et les formateurs professionnels, c’est la réussite de leurs apprenants : une satisfaction élevée est un moyen d’y parvenir, mais également un résultat naturel lorsque cette réussite est au rendez-vous.
En allant « au-delà du questionnaire de fin de formation », en exploitant intelligemment le feedback et en cultivant l’excellence pédagogique, vous garantirez non seulement une indexation favorable de votre offre sur les moteurs de recherche via les mots-clés stratégiques (qualité, compétences, pédagogie, etc.), mais surtout vous renforcerez la crédibilité et la profondeur d’Argalis aux yeux de votre audience. Une telle rigueur et un tel sérieux dans le suivi de la satisfaction dessinent l’image d’un partenaire de confiance, capable d’accompagner les apprenants adultes vers le succès.
Bibliographie
- 1. DARES & France Compétences (2023). Résultats de l’enquête sur les usages du compte personnel de formation. Données et études, Ministère du Travail.1, 4
- 2. Université de Strasbourg – Service Formation Continue (s.d.). Le modèle Kirkpatrick – Pour évaluer l’efficacité des formations. Page web explicative.3, 7
- 3. AFNOR Certification (2024). Tout comprendre sur la certification Qualiopi. Article en ligne, AFNOR.18, 19
- 4. IGAS – IGESR (2023). Rapport sur la qualité de la formation professionnelle. Annexe 2.1.2 : Dispositif d’évaluation de la satisfaction des stagiaires « ANOTEA ». Inspection Générale des Affaires Sociales.20
- 5. La Boîte à Outils des RH (2021). Questionnaire d’évaluation à froid – mesurer l’efficacité d’une formation. Outil PDF en ligne.9
- 6. Afdas (2022). L’AFEST : La formation en situation de travail. Présentation en ligne de l’OPCO Afdas.13, 15
 
            