Tout serait bon (rien à jeter) dans les Intelligences Artificielles génératives ! De fait, tous les goûts semblent servis : création d’images, génération de présentations Powerpoint, sous-titrage ou traduction automatisé. Mais, faut-il vraiment tester tous les outils pour se forger un avis raisonnable ? Opus #3 de notre série sur les « Mythes de l’IA en formation »
Quand les professionnels de formation s’approprient l’IA générative : « Test & Learn » ?
La formation n’a pas échappé au « big bang » de l’IA générative et à son nouvel espace d’opportunités, semble-t-il, sans limites. Illustration par le seul ChatGPT : génération de synopsis, syllabus, création de plans de cours ou de modules e-learning, génération d’images, synthèse de données ou de sources documentaires… servies par de fréquentes mises à jour dessinant progressivement l’avénement de véritables coachs virtuels (les GPTs ou « agents conversationnels ») : le champ des possibles ne cesse de s’étendre. Mais d’autres IA génératives sont tout aussi incontournables pour les professionnels de formation, par exemple : ElevenLabs (génération de voix), Midjourney (génération d’images), Gamma (création de présentations Powerpoint), Heygen (traduction x localisation de vidéos)…
Multiplicité d’outils et d’usages, donc, qui demande aux Directions Formation de se doter d’une stratégie de test pour supporter les « Proofs of Concepts » (POC) requis pour sélectionner et valider les outils adaptés à leurs propres besoins. On ne peut effet se passer de ces explorations fouillées dès lors qu’un outil utilisant l’IA générative doit être déployé et utilisé à grande échelle (scalabilité).
Posture : nourrir sa curiosité, tester, réussir ou échouer, apprendre de ces tests. L’approche Test & Learn est tout particulièrement conseillée dans le champ des IA génératives.
Mais, est-il seulement possible de tout tester ?
Le site www.thereisanaiforthat.com dénombre aujourd’hui plus de 10.200 outils utilisant l’IA générative ; des outils qui disparaissent ou fusionnent aussi vite qu’ils surgissent (rythme quotidien) : autant dire qu’il est vain de vouloir suivre le rythme ! Car vouloir tout tester, ce serait s’exposer à consacrer l’intégralité de son temps (qui n’y suffirait d’ailleurs pas) et de ses ressources dans une recherche sans fin, alors que nombre d’outils se ressemblent, notamment parce qu’ils emploient des mêmes modèles d’IA génératives (souvent ceux d’OpenAi).
Pour les Directions Formation, hors une consommation déraisonnable de ressources, le risque est encore plus grand de se laisser emporter dans une dérive purement « technophile » (le « comment ») au détriment du besoin et de l’intention pédagogique initiale (le « quoi » et le « pourquoi »). L’arrivée des outils d’IA générative amplifie ce phénomène déjà bien connu depuis que le digital s’est emparé de la formation. Dans le champ de l’IA, il nous semble qu’une systématisation du Test & Learn serait condamnée à l’échec dès lors qu’elle viserait l’exhaustivité des outils. Dès lors, par quoi remplacer cette approche ?
Une clé d’accès aux outils : partir des cas d’usage
Plutôt que de partir des outils pour définir des usages (une tentation toujours présente dont il faut se garder), c’est la démarche inverse, pourvoyeuse de sens et de valeur, qu’il faut adopter en matière d’IA génératives. Ici, nous préconisons deux jalons :
- Le diagnostic de l’existant, et son lot de questions : quelle est la chaîne de valeur de l’activité Formation dans mon entreprise ? Quels sont les rôles et les grandes tâches effectuées par les acteurs de l’écosystème interne ?
- L’allocation d’emploi des ressources : quelles sont les tâches à plus faible valeur ajoutée ? Sur quelles activités à plus forte valeur ajoutée pourrions-nous investir davantage de temps ?
Ces tâches à faible valeur ajoutée seront autant de cas d’usage pouvant justifier l’utilisation de l’IA à même de recentrer « l’humain » sur les tâches à forte valeur ajoutée. Illustration de l’approche : « J’ai identifié la postproduction de vidéos (sous-titrage, montage) comme une tâche à faible valeur ajoutée ; je peux alors me lancer dans le test d’outils générant automatiquement des sous-titres ». Le temps gagné pourra utilement être dédié à la conception pédagogiques de dispositifs stratégiques. Les cas d’usage ne manquent pas (confère le support de l’IA générative au modèle ADDIE).
Plus forts ensemble : pratique collective du benchmark et de la veille
Reste que l’identification des cas d’usage ne suffit pas, car divers outils peuvent être appliqués à un même cas… Il s’agit donc de bien choisir ceux que l'on va tester pour éviter toute perte temps dans leur exploration.
Une piste possible : s’inspirer et s’ouvrir à ce que d’autres professionnels de formation ont réalisé de leur côté, aux outils qu’ils ont testés et qualifiés et qui répondront vraisemblablement aussi à vos propres besoins. Il est également bénéfique de tester collectivement les outils, soit en dépassant les silos de l’entreprise, soit en engageant la conversation avec des acteurs de formation externes. Idée : bâtir une communauté de pratiques autour de l’IA générative. Cette approche est vertueuse : chaque membre de la communauté prend une longueur d’avance sur les métiers et diverses parties prenantes de l’entreprise ; les outils et budgets associés sont rationalisés ; la démarche d’innovation est structurée, crédibilisée. S’inspirer des autres en déplaçant les frontières de l’organisation, valoriser un écosystème ouvert de formation, « s’efforcer en commun »… une voie prometteuse.
Déjà parus :
5 mythes de l’Intelligence Artificielle (en formation, comme ailleurs)
L’IA : destruction créatrice des métiers de formation ?
L’IA : pour tous ? Sous réserve…
|