On confond souvent deux choses qui, pourtant, ne racontent pas la meme histoire.
La premiere est simple : quelqu’un a termine un module.
La seconde est autrement plus importante : cette personne sait-elle maintenant faire ce qu’on attend d’elle ?
Dit comme ca, l’ecart parait evident. Dans les faits, il l’est beaucoup moins. Et ce petit glissement, mine de rien, peut couter cher. Pas toujours en ligne budgetaire visible. Parfois, la facture arrive ailleurs : sur le terrain, dans les ecarts qualite, dans un audit qui gratte, dans des arbitrages RH appuyes sur des donnees trop flatteuses pour etre vraiment utiles.
Donc non, la question n’est pas seulement : quel KPI faut-il suivre ?
La vraie question, c’est plutot : qu’avez-vous besoin de prouver, exactement ?
Si l’enjeu consiste a demontrer qu’une formation obligatoire a bien ete mise a disposition et suivie jusqu’au bout, le taux de completion est parfaitement adapte. En revanche, si l’on cherche a verifier une appropriation reelle (capacite a appliquer, a decider juste, a eviter les erreurs, a adopter le bon comportement au bon moment), alors il faut changer de focale. Ce n’est plus la diffusion qu’on pilote. C’est la competence, et cela passe par des KPI e-learning competences (ou des indicateurs de maitrise) vraiment exploitables.
Completion : un KPI e-learning utile, quand on parle bien de diffusion
Le taux de completion mesure, en gros, la part des apprenants qui ont termine un module selon les regles du LMS : derniere etape atteinte, parcours valide, parfois quiz final franchi. C’est lisible, rapide a exploiter, et oui, c’est utile.
Mais utile pour quoi ? Pour savoir qui a termine.
Pas pour savoir qui maitrise reellement le sujet.
La nuance parait legere sur le papier. En realite, elle change tout. Dans certains contextes, on n’a pas besoin de plus. Quand l’objectif est la tracabilite, la completion tient tres bien son role.
On la retrouve en priorite dans des cas assez classiques :
- les formations reglementaires ou de conformite : RGPD, anticorruption, securite de base, prevention du harcelement ;
- l’onboarding administratif, ou il faut s’assurer que les regles, procedures et reperes internes ont bien ete diffuses ;
- les communications de changement, par exemple lors d’un nouveau process ou d’un deploiement d’outil, quand la priorite est d’atteindre tout le monde.
Dans ces cas-la, un bon taux de completion a une vraie valeur. Il documente la couverture. Il permet d’identifier les retardataires. Il aide a organiser les relances.
La ou ca derape, c’est quand on commence a lui faire dire autre chose. Un taux de completion eleve ne prouve pas, a lui seul, qu’il y a eu apprentissage. Encore moins transfert.
Un module termine n’est pas une preuve de competence
Un module peut afficher 100 % de completion et produire, sur le terrain, a peu pres zero effet visible. Ce n’est pas rare. C’est meme assez banal.
On connait le scenario. Le module tourne en arriere-plan entre deux reunions. L’apprenant clique vite, repond un peu au juge, valide le quiz parce qu’il repere les bonnes reponses par elimination ou parce qu’il a deja vu ce type de questions dix fois. Le LMS remonte une donnee impeccable. Le reporting aussi. Mais cote metier, ca reste fragile.
Trois pieges frequents (et tres concrets)
- Le parcours automatique : quand un module est trop lineaire, trop previsible, il se consomme sans veritable engagement.
- L’attention morcellee : etre connecte au module ne veut pas dire etre mentalement disponible.
- La confusion SCORM : dans SCORM,
completedetpassed, ce n’est pas la meme chose.
Dans SCORM 2004, l’ADL distingue bien completion_status et success_status. Selon le LMS et la maniere dont le module a ete parametre, les deux statuts peuvent vivre separement.
Pour aller a la source : SCORM, documentation officielle ADL.
Consequence tres concrete : vous pouvez avoir 90 % de completion et, quelques semaines apres, constater que les erreurs critiques n’ont pas bouge d’un millimetre.
Ce n’est pas forcement que la formation est mauvaise. Souvent, c’est plus simple, et un peu plus embetant : on n’a pas pilote la bonne chose.
KPI e-learning competences : comment mesurer la montee en competences (sans se raconter d’histoires)
Le terme est parfois utilise a toutes les sauces. Pourtant, une montee en competences, ce n’est ni une impression agreable, ni un joli score de sortie qui rassure tout le monde le temps d’un comite.
C’est une progression observable dans la capacite a agir.
Pas seulement restituer une regle. Pas seulement reconnaitre la bonne reponse. Agir. Choisir. Prioriser. Diagnostiquer. Executer correctement. S’ajuster quand la situation se complique un peu, quand le contexte n’est plus tout a fait celui du module.
Une competence ne se voit vraiment qu’en action. Le reste, disons-le franchement, ce sont souvent des signaux intermediaires.
Pour un responsable formation, les preuves les plus solides ressemblent plutot a ceci :
- une reussite sur une tache contextualisee ;
- une amelioration entre plusieurs essais ;
- une baisse des erreurs critiques ;
- une performance stable sur des variantes proches d’une meme situation.
Cette stabilite compte beaucoup. Pas la reussite ponctuelle sur une seule question bien balisee.
Exemples : ce qui prouve vraiment la competence
- En vente : connaitre un script de decouverte ne signifie pas savoir conduire un echange commercial. Ce qui compte, c’est la qualite des questions, l’ecoute reelle, la facon de traiter une objection sans casser la dynamique.
- En management : memoriser les principes du feedback n’assure rien. Tout se joue dans le timing, la formulation, le niveau de fermete, la capacite a recadrer sans humilier.
- En securite : reciter une procedure est une chose. L’appliquer correctement sous pression, avec ambiguite ou contraintes, c’en est une autre.
KPI e-learning competences : les indicateurs qui servent vraiment a piloter
Un tableau de bord trop charge donne souvent une illusion de maitrise. On empile les chiffres, on colore des cellules, on se rassure. Mais, sur le fond, on comprend mal ce qu’il faut faire ensuite.
Mieux vaut peu d’indicateurs, mais de bons indicateurs.
Reussite, echec : le minimum vital
Le premier, tout simplement : la reussite ou l’echec. Un statut passed/failed, ou un niveau de maitrise clairement defini, dit deja beaucoup plus qu’un simple completed. Il permet de repondre a une question tres concrete : qui peut agir correctement, et qui ne le peut pas encore ?
Scores par competence (plutot qu’un score global)
Le score global a un defaut majeur : il lisse tout. Il peut masquer une faiblesse nette sur un point pourtant critique. Or un apprenant « correct en moyenne » peut rester a risque sur un geste, une regle ou une decision essentielle.
Suivre separement certaines dimensions (diagnostic, conformite, posture relationnelle, ecoute, priorisation, traitement d’objection) donne une lecture bien plus exploitable. C’est typiquement la qu’un KPI e-learning competences devient actionnable.
Progression entre tentatives : le signal le plus parlant
Quand quelqu’un passe de 42 % a 74 %, puis confirme sur une variante avec un niveau stable, on ne parle plus d’un coup de chance. On observe une dynamique d’apprentissage.
Temps passe : utile seulement si on le croise avec la performance
Pris seul, il ne raconte pas grand-chose de fiable. Un temps long peut signaler une vraie implication, ou une attention dispersee. Un temps tres court peut traduire une maitrise nette, ou un simple survol.
En revanche, croise avec la performance, il redevient interessant :
- beaucoup de temps + beaucoup d’echecs sur la meme etape : il y a probablement un point de blocage pedagogique ;
- reussite rapide et stable : la, on tient peut-etre un acquis solide.
Deux cadres simples pour structurer l’evaluation
- le modele de Kirkpatrick, qui distingue reaction, apprentissage, transfert et resultats ;
- xAPI, plus pertinent que SCORM des qu’on veut suivre des actions fines, des decisions ou des traces d’activite, et pas juste la fin d’un module.
Pour un repere solide, cote recherche, vous pouvez aussi consulter :
- Sitzmann, T. (2011). A meta-analytic examination of the instructional effectiveness of computer-based simulation games (Computers in Human Behavior)
- Baldwin, T.T., Ford, J.K. (1988). Transfer of training: A review and directions for future research (Journal of Applied Psychology)
- Hattie, J., Timperley, H. (2007). The Power of Feedback (Review of Educational Research)
Pour trancher vite, il faut d’abord clarifier l’intention (et les KPI e-learning competences associes)
Au fond, demander quel est le meilleur indicateur ? est souvent une mauvaise entree.
Il vaut mieux poser une question plus franche : cherchez-vous a informer, a certifier ou a entrainer ?
A partir de la, les choses deviennent plus nettes. Et, tres souvent, quatre variables suffisent pour cadrer le pilotage :
- l’objectif : informer, certifier, entrainer ;
- le profil du public : novice, experimente ou mixte ;
- le niveau de risque metier : faible, moyen, critique ;
- l’horizon vise : besoin immediat ou transfert durable.
Si l’objectif principal est d’informer (conformite, reperes culturels, regles generales), la completion reste un indicateur coherent.
Si l’objectif est de certifier (habilitation, securite, qualite, execution d’un geste metier), alors la reussite, les seuils de validation et l’identification des erreurs critiques deviennent non negociables.
Et si l’objectif est d’entrainer un comportement, une posture ou une prise de decision, il faut rendre l’action visible. Donc accepter des dispositifs moins lineaires, plus proches du reel, qui permettent d’observer des choix et pas seulement des clics.
La regle est assez simple : plus le risque metier monte, moins la completion suffit.
Selon le type de formation, on ne pilote pas la meme realite (H3 par H3)
Tous les dispositifs e-learning n’ont pas la meme finalite. Les evaluer avec les memes dashboards, c’est confortable, et souvent trompeur.
Conformite : completion + verification ciblee
La completion reste essentielle. En revanche, il est prudent d’y ajouter une validation minimale centree sur les vrais points de risque. Pas un quiz inutile sur des details. Quelques questions courtes, ciblees, qui verifient les elements sensibles.
Onboarding : des jalons operationnels, pas seulement « termine »
Se contenter d’une completion, c’est souvent trop court. Un nouvel arrivant doit savoir ou trouver l’info, accomplir certaines demarches, utiliser les bons relais. Des jalons concrets sont plus parlants : reussir une procedure cle, orienter correctement une demande, mobiliser la bonne ressource au bon moment.
Vente et relation client : les choix et la progression
Ici, la competence se lit dans les decisions. Les bons dispositifs mettent en situation, puis regardent ce qui se passe : quelles questions sont posees, si l’ecoute est reelle, comment une objection est traitee, si la conclusion est amene avec justesse. Les scores par competence, et surtout leur progression, valent bien davantage qu’un taux de completion flatteur.
Management : mesurer la posture, pas la memoire
Ce qui compte, ce n’est pas seulement de connaitre les principes, c’est la coherence de posture. Clarifier une attente, recadrer sans agressivite, ecouter sans fuir le sujet, decider sans contourner le probleme : ce sont des comportements. Les scenarios interactifs, avec feedback contextualise, sont souvent plus discriminants qu’un QCM de connaissances.
Securite et qualite : isoler les erreurs critiques
Il faut pouvoir identifier les erreurs non acceptables. Une reussite globale peut masquer une faute critique qui, elle, reste redhibitoire. Dans ce cas, on surveille d’abord la reussite reelle, les echecs bloquants, les erreurs critiques et, selon les cas, la performance sous contrainte.
Sortir du faux duel « module termine / non termine » avec des KPI e-learning competences
Dans beaucoup d’environnements LMS, la donnee la plus visible reste la completion. C’est normal : elle remonte facilement, elle alimente les dashboards, elle rassure vite. Mais elle a une limite nette : elle dit que le module a ete parcouru, pas que quelque chose a ete vraiment acquis.
L’approche proposee par Serious Factory vise justement a depasser cette lecture binaire.
Avec VTS Editor, il devient possible de concevoir des mises en situation realistes, des modules gamifies ou des serious games sans expertise technique poussee, a partir de blocs d’interaction varies : choix, quiz, zones cliquables, conditions, scores, badges. L’enjeu n’est pas seulement ergonomique. C’est ce qui permet d’observer une decision, un raisonnement, une posture.
Decouvrir l’outil auteur : Outil de conception de modules E-Learning gamifies facilite grace a l’IA.
Puis, avec VTS Perform, l’analyse ne se limite plus a « termine / non termine ». On peut suivre des jalons, une reussite ou un echec, des scores par competence, des trajectoires d’apprentissage sur plusieurs essais. Autrement dit, on construit un pilotage centre sur des KPI e-learning competences.
Voir la plateforme LMS : Plateforme LMS simple et efficace pour le deploiement et l’evaluation des competences.
Et la, fatalement, les questions changent.
- Ou observe-t-on une progression reelle ?
- Quelles competences restent fragiles ?
- Quels apprenants ont besoin d’un accompagnement cible ?
- Quel point du dispositif merite une refonte ou un renforcement ?
Au passage, la conversation avec les managers devient plus utile. On sort de la simple logique de diffusion. On parle de maitrise operationnelle.
Pour illustrer ce type d’approche, vous pouvez aussi parcourir des retours terrain :
Pour aller plus loin sur les formats, ces pages peuvent servir de ressources :
FAQ
Est-ce qu’un bon taux de completion suffit pour prouver l’efficacite d’une formation ?
Non. Il montre surtout qu’un contenu a ete parcouru ou diffuse. Pour parler d’efficacite, il faut au moins un indicateur de performance : reussite a une evaluation, progression entre tentatives, baisse des erreurs critiques ou score par competence.
Quels indicateurs suivre dans un cadre d’audit conformite ?
Commencez par la couverture de population et la completion. Ajoutez ensuite une validation minimale sur les points sensibles. Si le risque est eleve, mieux vaut suivre aussi le statut de reussite, pas seulement la fin du module.
Comment mesurer une montee en competences sans alourdir le dispositif ?
Pas besoin de transformer le dashboard en sapin de Noel. Deux a quatre indicateurs bien choisis suffisent souvent : taux de reussite, score sur quelques competences cles, progression entre deux tentatives et suivi des erreurs critiques.
Quelle difference entre « completed » et « passed » dans un LMS SCORM ?
Dans SCORM, completed signifie que le parcours est termine. passed indique que le niveau attendu a ete atteint. Les deux statuts peuvent etre distincts selon le parametrage du module et du LMS. Cette distinction est prevue dans la documentation officielle de l’ADL.
Quand faut-il quitter le module lineaire pour aller vers la simulation ou le serious game ?
Des que l’objectif n’est plus seulement d’informer, mais de faire agir correctement dans un contexte concret. En vente, en management, en securite, en qualite ou en relation client, des que la posture, le jugement ou la decision pesent autant que la connaissance, la simulation devient nettement plus pertinente.




