Omniprésente dans les pratiques de formation, l’évaluation a renouvelé ses formats, mais pas vraiment ses formulations, avec parfois une perte de sens… À l'heure du pilotage de la formation par les compétences, il faut repenser l’évaluation pour donner corps enfin à l'individualisation des parcours et renforcer la crédibilité des validations de compétence.
Mini-… Micro-… Ludo-quiz, sondages, challenges, défis… plus une classe virtuelle, plus un contenu e-learning, plus un article qui ne mette en avant son quiz interactif sur fond de systématisation des évaluations à chaud et autres feed-backs post formation.
Mais le questionnement est loin d’être toujours à la hauteur de l’enjeu !
« Cette formation a-t-elle répondu à vos objectifs ? », ou bien « Qu'avez-vous retenu de ce module ? », ou encore « Quels sont les 3 principaux… ? ». On continue d’évaluer l'attention, l'engagement et la satisfaction dans une logique de légitimation de l'achat de la formation au lieu de mesurer son impact sur la montée en compétence.
Les neurosciences et la technologie ont pourtant bien redynamisé les modalités d'évaluation et élargi son champ d'action. On a vu arriver des formats de plus en plus interactifs pour évaluer les gestes métiers sur le terrain avec des quiz intégrés via du tagging audio ou vidéo dans des outils de RV (réalité virtuelle) ou RA (réalité augmentée). Avec la digitalisation, les tests de personnalité — MBTI, PAPI, SOSIE, Big Five, etc — sont devenus plus accessibles, sinon financièrement, au moins techniquement. Tenter de résoudre un problème avant qu’on se voie enseigner la solution : l'évaluation a trouvé et démontré son rôle formatif puissant (confère le livre de référence : « Make it stick, the science of Successful Learning », par Peter Brown) dans les principes d'ancrage mémoriel® en s'appuyant sur le questionnement individualisé et la modélisation des durées de rétention.
Armée d’un tel potentiel, l'évaluation pourrait considérablement améliorer l'individualisation des parcours de formation !
C’est un challenge pour les directions Formation que de passer du collectif à l'individuel.
Comment savoir ce que l'on ne sait pas ? Pour individualiser, il faut connaître le savoir individuel que chacun a déjà acquis, pour personnaliser ensuite le parcours. L'évaluation est un bon moyen de faciliter cette individualisation à chaque étape clé du parcours, sans recourir pour autant à des algorithmes complexes.
Il faut sortir l'évaluation de son intermittence et la penser dans la continuité du parcours. On parle d'AFEST alors qu'on devrait parler de FEST. Cette nouvelle modalité de formation qui insiste sur l'évaluation et le feedback réflexif en donne la preuve : on commet l’erreur d’évaluer individuellement chaque action de formation de manière discontinue.
Alors qu’en s’inspirant des modèles utilisés dans l'ingénierie industrielle, les parcours devraient être pensés en amont avec des évaluations et debriefs à froid à J+7, J+30 ; ils devraient impliquer régulièrement les tuteurs, référents métier et managers dans l'observation et le suivi des compétences (et pas seulement au moment de l'entretien annuel). Voilà qui permet de mesurer l'acquisition, la rétention, la progression continue dans une approche 70/20/10 !
Reformuler nos questions à la hauteur de l'enjeu compétence.
« Comment comptez-vous appliquer ce contenu dans votre activité ? ». Les stagiaires ont de quoi être perplexes devant des questions qui semblent en appeler au niveau 3 de l'échelle de Kirkpatrick. Au mieux, une réponse sincère est faite à chaud, mais rarement mise en pratique à la fin. On a aussi le sentiment que certains concepteurs consacrent plus de temps à expliciter les échelles de notation qu'à décrire simplement les attendus du geste métier ou de la compétence comportementale elle-même !
Savoir poser, formuler les questions est une science, la « docimologie », dont il existe quelques experts en France qui seraient utilement consultés pour remettre à plat les questionnaires d’évaluation, la formulation des détails ou les feed-backs.
Les plateformes de formation doivent « désiloter » l'évaluation
C’est le parti pris par la plateforme xLMS® : inscrire l'évaluation dans une solution globale permettant d'exploiter chaque modalité, au bon moment, pour personnaliser les parcours. Il s'agit, par exemple, de combiner l'usage de :
- tests de positionnement pour épargner aux apprenants de suivre des sujets déjà connus,
- quiz ludiques pour ancrer, créer une culture et dédramatiser l'évaluation,
- épreuves adaptatives pour se former en profondeur de manière individualisée avec uniquement des questionnements,
- observations digitalisées par des tiers pour coacher la compétence sur le terrain,
- campagnes 360 pour faire évoluer les compétences comportementales.
Sans pour autant négliger les enquêtes qualitatives post formation.
Consolider ces modalités permet non seulement de personnaliser les parcours métier, mais également de mettre à profit un patrimoine partagé de questions bien formulées plutôt que disséminées selon les prestataires et auteurs.
À l'heure du pilotage de la formation par les compétences, il est urgent de repenser les pratiques d'évaluation pour faire aboutir l'individualisation des parcours et renforcer la crédibilité des validations de compétence.
À propos d’XPERTEAM : XPERTEAM est l'éditeur des solutions xLMS, Quiz Manager et Experience Manager dont l’édition d’octobre inclura nativement des fonctionnalités dédiées aux programmes de Feedback 360 et à l'évaluation formative adaptative.
|