Alors que l’IA semble promettre une simplification et une démocratisation de l’accès au savoir, elle met également en lumière une fracture numérique persistante. Entre facilité d’usage et défis éthiques, comment l’IA peut-elle réellement contribuer à réduire cette fracture et renforcer l’inclusion ? Dans ce quatrième et dernier volet, Isabelle Dremeau et Michel Diaz partagent leurs perspectives sur ce sujet brûlant.
Des débuts prometteurs freinés par la fracture numérique
Isabelle Dremeau : Je repense quelques années en arrière à l'intégration du « Web 2.0 » dans les salles de formation. Les formateurs ont accueilli la possibilité de créer leurs propres contenus en ligne avec grand intérêt, mais également pour certains déjà avec un peu d’appréhension. Devenus eux-mêmes créateurs de contenus sur le web, ils pouvaient publier leurs cours sur des blogs ou des wikis. C’était la première fois que les ressources se partageaient aussi facilement, accessibles à un public plus large et participant à une mutualisation des connaissances dépassant le cadre des échanges entre formateurs proches. Était-ce, avant l’arrivée des MOOC, un premier pas vers la démocratisation des savoirs ? Sans doute, mais cette démocratisation a rapidement été confrontée à la fracture numérique. Derrière les écrans, les difficultés sont apparues : problèmes d’accès à Internet, appareils peu performants et une formation numérique insuffisante. Tout un ensemble d’obstacles qui a limité l'inclusion de tous et a renforcé la fracture numérique. Un nouveau terme est apparu : l’illectronisme, décrivant les situations de personnes en grande difficulté face au numérique.
L’IA : une technologie accessible, mais paradoxale
Isabelle Dremeau : Notre rapport aux outils d’IA est tout autre : avec l’IA, on ne se pose pas trop la question, si on sait ou non s’en servir. On se connecte, on discute, car c’est le point fort de cette technologie, la capacité à simuler de véritables dialogues et d’avoir réponse à tout. On demande et on obtient… immédiatement, sans attendre ! L’IA est familière, les interfaces sont intuitives : on identifie des objets, des plantes, des fleurs ou on traduit les inscriptions en langues étrangères grâce à Google Lens sur son smartphone. Plus de problèmes de traduction en temps réel, même lors de concerts, lorsque les artistes font parler leur téléphone pour s’adresser à leur public dans la langue du pays visité. Familière, transparente, présente, mais cette disponibilité cache une dépendance et un certain paradoxe.
Former à l’IA pour mieux exploiter
Isabelle Dremeau : Le défi est de taille : former à l’IA pour mieux utiliser l’IA… L’IA a certes montré ses atouts pour un apprentissage rapide, plus personnalisé, automatisé, pour assister les apprenants avec des outils de reconnaissance ou de synthèse vocale, de correction orthographique, de simplification de textes. Cependant, l'utilisation de ces outils requiert en plus une maîtrise spécifique pour bien en comprendre les enjeux éthiques avec le respect de la vie privée. Les recommandations des instances éducatives convergent : utiliser de l’IA en formation, ne va pas sans former formateurs et utilisateurs à l’IA. Le rapport GTNum « Intelligence artificielle et éducation / Apports de la recherche et enjeux pour les politiques publiques » d’avril 2023 donne des pistes de travail pour former à l’IA et l’enseigner. Dernièrement, la Commission de l’intelligence artificielle dans un document de mars 2024 intitulé « IA : notre ambition pour la France » préconisait également de « former sans délai, massivement et en continu » et d’« investir dans la formation professionnelle continue des actifs et les dispositifs de formation autour de l’IA ». Ainsi, former à l’esprit critique, mettre en place des parcours de formation pour sensibiliser les salariés en entreprises, les formateurs eux-mêmes aux risques et limites de l’usage de l’IA semble indispensable pour garder un recul nécessaire à sa bonne utilisation dans un contexte pédagogique.
Michel Diaz : Isabelle a raison de signaler que l’IA générative présente l’énorme avantage d’une facilité d’utilisation inégalée. Aucun besoin, en effet, d’apprendre à manipuler un logiciel qui, même présenté comme simple d’accès, demande toujours un effort d’apprentissage, voire suppose une réacclimatation dès qu’on doit s’en servir… si l’on ne s’en sert pas souvent ! Là rien de tel : l’IA générative se présente comme une conversation en langage naturel : il suffit de taper au clavier, sinon, plus simplement encore, de dicter (via la dictée vocale qui existe sur la plupart des équipements, PC ou mobiles) la question ou le commentaire sur lequel on veut que l’IA réagisse. Il y a du moteur de recherche là-dedans, mais à la puissance dix, car plutôt que de lancer une requête sommaire sur Google (par exemple), l’IA générative permet de poser une question nettement plus précise (le prompt) doté de conditions fixées à la réponse attendue (nombre de mots, styles, structuration, etc.) et de poursuivre la conversation par d’autres questions ou remarques sur lesquelles le robot réagira à son tour.
La maîtrise des prompts : un compétence à développer
Michel Diaz : La question qui se pose alors n’est plus celle de l’accessibilité à un outil d’une grande puissance, mais, très en amont, celle de la capacité, d’une part, à poser les bonnes questions et, d’autre part, à développer une conversation susceptible de créer de la valeur. Poser les bonnes questions, c’est essentiel : on dit qu’un problème bien posé est déjà à moitié résolu. Poser les bonnes questions est complexe, justement pour cette raison. En effet, cela suppose d’avoir, en amont, un niveau certain de connaissance sur le sujet confié à l’IA, et, bien sûr, d’avoir réfléchi à une stratégie de questionnement apte à produire les réponses attendues. Développer une conversation avec l’IA, c’est également important (moins, je le pense, que de savoir poser dès le départ la ou les « bonnes » questions, qui suffiront souvent). Mais, la conversation reste un art, menacé par le risque de parler pour ne rien dire… En la matière, ChatGPT est inépuisable : il conversera avec vous autant que vous le souhaitez, sans connaître la moindre fatigue. Cette double compétence — poser les bonnes questions, développer la conversation — n’est pas la chose la mieux partagée du monde : c’est à ces fondamentaux qu’il faut revenir. De ce point de vue, on pourra espérer que les formations à l’IA générative et autres prompts puissent aussi flécher des savoirs que la philosophie n’a cessé d’accumuler depuis deux millénaires (de fait, depuis la maïeutique socratique). On en est encore loin…
On notera ici que ces compétences (esprit critique, capacité à remettre en cause les réponses de l’IA, formalisation des questions, structuration du sujet, capacité de dialogue et de collaboration, même si c’est avec un automate) sont justement parmi les compétences clés repérées, pour les organisations et l’avenir du travail, par la plupart des institutions (Europe, BIT, WEF, MIT, etc.). Des compétences spécifiquement humaines, en mesure de nous donner un avantage… par rapport aux automates. Le paradoxe est délicieux : cet automate, décrié pour menacer l’emploi, nous contraindrait donc à son tour à développer ce portefeuille de compétences, ne serait-ce que pour pouvoir dialoguer avec lui ! Allons, tout n’est pas perdu !
L’intelligence artificielle : promesse d’un apprentissage personnalisé, au risque de la déshumanisation ?
Quand l'apprenant est évalué par l'IA… Stress ?
Gamification et IA : une synergie prometteuse pour la formation ?
|