ELEARNINGLETTER
ACTUALITE & STRATEGIES DIGITAL LEARNING
ÉVÉNEMENTS OFFRES D'EMPLOIS COMMUNIQUÉS DE PRESSE ANNUAIRE DES PREMIUM
Leaders du Digital Learning
CONTRIBUTEURS S'ABONNER
À la newsletter
L’adaptative learning : des enjeux juridiques, éthiques et humains (2)
15 MARS 2024 / ia générative / pratiques
Sarah Lenoir
avocate et fondatrice
alkeemia avocat
Après avoir analysé les enjeux et les risques de l’adaptative learning sous le prisme général de la réglementation, Sarah Lenoir (Alkeemia) traite, dans ce deuxième volet, de l’impact du RGPD et de l’IA Act dans la structuration du traitement des données de l’apprenant (RGPD) et dans l’usage d’algorithmes d’Intelligence Artificielle (IA Act). 

Comment le RGPD répond aux enjeux et risques de l’adaptative learning…

Une approche par les valeurs

Le RGPD s’inscrit dans le cadre de la Charte des droits fondamentaux de l’Union Européenne qui place la protection des données comme droit fondamental (article 8 chapitre 1 de la Charte). Le texte se place donc sur le terrain des valeurs et de l’universalité. « Le traitement des données à caractère personnel devrait être conçu pour servir l'humanité » (considérant 4 du RGPD). Les traitements de données personnelles s’analysent au prisme des atteintes aux intérêts et aux droits et libertés de la personne concernée.

Les principes et obligations posées par le RGPD : une réponse partielle aux risques et enjeux

Destinés à renforcer la confiance de l’usager dans la collecte et le traitement des données, ces principes et obligations sont notamment : 

  • Les principes de licéité, loyauté, transparence, de limitation des finalités de traitement, de minimisation des données, d’exactitude, de limitation de la conservation, d’intégrité et confidentialité, et enfin de responsabilité ; 
  • Le traitement par défaut interdit des données à caractère personnel particulières ou sensibles (notamment les données révélant l'origine raciale ou ethnique, les opinions politiques, les convictions religieuses ou philosophiques ou l'appartenance syndicale, les données biométriques aux fins d'identifier une personne physique de manière unique, les données concernant la santé ou la vie sexuelle ou l'orientation sexuelle d'une personne physique) ; 
  • L’obligation d’information des personnes concernées ; 
  • Les droits des personnes et notamment les droits d’accès, de rectification, à l’oubli, à la portabilité, ou encore d’opposition ;
  • L’encadrement des activités de profilage et de prise de décision automatisée ; 
  • L’encadrement des flux transfrontières ; 
  • Les outils d’analyse et d’encadrement des traitements tels que la nomination d’un Data Protection Officer, le registre ou encore l’analyse d’impact.

Le RGPD permet ainsi de minimiser partiellement les risques identifiés et répondre à certains enjeux. 

Bilan de la conformité RGPD au sein des organisations

Ces dispositions règlementaires entrées en vigueur le 24 mai 2016 et applicables depuis le 25 mai 2018 dans les entreprises ont permis de renforcer la protection des données personnelles, notamment celles de leurs salariés. Les contrats de travail et chartes informatiques ont été renforcés de dispositions spécifiques. Des politiques internes relatives au traitement de données personnelles ont été élaborées permettant de lister les typologies de traitements opérés et informant le personnel sur ses droits et recours. Des formations sont dispensées bien souvent dès le parcours d’intégration des nouveaux collaborateurs. Les équipes RH et les services de formation sont alertes sur ces sujets. 

Toutefois, l’introduction de certains outils, particulièrement lorsqu’ils manquent d’explications, peuvent susciter la méfiance des collaborateurs, par leur caractère intrusif ou par les usages qui peuvent être faits par l’employeur des traitements opérés dans la prise de décision RH. L’augmentation des technologies de surveillance sur le lieu de travail (localisation, surveillance des e-mails, analyse de la productivité) augmentent également cette défiance.

L’usage de solution d’adaptative learning peut aussi engendrer une telle défiance que la seule conformité au RGPD de l’outil ne suffit pas à couvrir. 

L’anticipation du futur IA Act pour mieux appréhender les enjeux et risques de l’adaptive learning

La balance valeur / innovation

La proposition de l’IA Act a pour ambition de « promouvoir l'adoption d'une intelligence artificielle centrée sur l'homme et digne de confiance, tout en assurant un niveau élevé de protection de la santé, de la sécurité, des droits fondamentaux consacrés par la Charte contre les effets néfastes des systèmes d'intelligence artificielle dans l'Union, et soutenir l'innovation » (proposition considérant 1)

Le texte de l’IA Act met en balance le respect des valeurs posées par la Charte (et notamment le droit à la dignité humaine (article 1er), le respect de la vie privée et la protection des données à caractère personnel (articles 7 et 8), la non-discrimination (article 21) et l’égalité entre les femmes et les hommes (article 23), la protection de l’environnement (article 37)) et l’innovation compte tenu de la course mondiale et des enjeux économiques, mais également idéologiques et de souveraineté associés à ce sujet.

Pour répondre à cette balance des intérêts, le texte vise à mettre en place une série d’actions préventives et notamment des exigences de sécurité élevées, pesant sur les acteurs de la chaîne d’un système d’IA, en adoptant une approche des IA par les risques et à promouvoir l'adoption d'une intelligence artificielle centrée sur l'homme et digne de confiance, tout en garantissant un niveau élevé de protection des droits fondamentaux consacrés par la législation européenne.

Une approche par les risques

Parmi les systèmes d’IA considérés comme une menace évidente pour les droits fondamentaux et donc interdits sont cités les systèmes de reconnaissance des émotions utilisés sur le lieu de travail ou encore un système de scoring social. 

Parmi les systèmes d’IA présentant un risque élevé dans le domaine de la formation professionnelle et de l’emploi et la gestion des salariés sont listés :

  • Les systèmes d’IA destinés à être utilisés pour déterminer l’accès ou l’affectation de personnes physiques aux établissements d’enseignement et de formation professionnelle ;
  • Les systèmes d’IA destinés à être utilisés pour évaluer les étudiants des établissements d’enseignement et de formation professionnelle et pour évaluer les participants aux épreuves couramment requises pour intégrer les établissements d’enseignement ;
  • Les systèmes d’IA destinés à être utilisés pour le recrutement ou la sélection de personnes physiques, notamment pour diffuser les offres d’emploi, la présélection ou le filtrage des candidatures, et l’évaluation des candidats au cours d’entretiens ou d’épreuves ;
  • L’IA destinée à être utilisée pour la prise de décisions de promotion et de licenciement dans le cadre de relations professionnelles contractuelles, pour l’attribution des tâches et pour le suivi et l’évaluation des performances et du comportement de personnes dans le cadre de telles relations.

Ces systèmes d’IA à risques élevés imposent de respecter tant pour les fournisseurs de systèmes que pour les utilisateurs un grand nombre d’obligations, parmi lesquelles : 

  • Un système de gestion des risques par la création d’un processus itératif continu qui se déroule sur l'ensemble du cycle de vie d'un système d’IA à haut risque (analyse de risques, évaluation continue) ;
  • Des obligations de précision, robustesse et cybersécurité ;
  • Un contrôle humain permettant d’assurer la surveillance par des personnes physiques pendant la période d'utilisation du système d'IA ; 
  • La transparence et la fourniture d’informations aux utilisateurs, notamment par une notice d’utilisation avec des informations relatives à l’identité du fournisseur, les caractéristiques, capacités et limites du système, les informations relatives aux données d’entrainement, la robustesse et sécurité du système, les informations permettant d’interpréter les résultats, les mesures de supervision humaine, les ressources informatiques et matérielles nécessaires ; 
  • La journalisation des évènements ;
  • Une documentation technique permettant de démontrer la conformité du système aux exigences posées par les textes ;
  • La gouvernance des données par la formation, validation et test des ensembles de données répondant aux critères de qualité.

Ces obligations posées par l’IA Act s’ajoutent à celles posées par le RGPD pour ce qui est du traitement de données à caractère personnel. La Commission nationale de l’informatique et des libertés (CNIL) a publié un plan d’actions pour le déploiement de systèmes d’IA respectueux de la vie privée des individus1. Par conséquent, tout déploiement de solution d’adaptative learning impose de vérifier la conformité de l’outil à l’IA Act et au RGPD et d’assurer une transparence accrue vis-à-vis des salariés en matière d’utilisation de leurs données par le système, mais également par l’employeur qui les déploie.

Déjà paru :

À suivre : 

  • Droit de la propriété intellectuelle actualisé et propos conclusif. 
Spécialiste renommée en droit de la propriété intellectuelle, droit des nouvelles technologies et droit de la data, contributrice talentueuse et précise d'e-learning Letter, Sarah Lenoir signe trois articles (le dernier est à venir) sur les enjeux et les risques de l'adaptive learning et de l'IA générative appliquée à la formation. Belle synthèse nourrie d'une expertise fondée sur l'accompagnement de projets de transformation business, éthique et de conformité juridique. Un pragmatisme utile auquel les responsables formation seront forcément sensibles.

Michel Diaz (éditeur, e-learning Letter)

ARTICLES RÉCENTS DANS LA MÊME RUBRIQUE | ia générative
Tutorat augmenté : quand l'IA aide les formateurs à redessiner l'accompagnement pédagogique •SUITE L'IA réinvente la création de cours en ligne avec un service gratuit pour les formateurs •SUITE
L'upskilling à l'IA : Schneider Electric mise sur un programme innovant pour embarquer ses 150 000 collaborateurs •SUITE Course AI : l’outil que la communauté Moodle attendait •SUITE
IA : le nouvel équipier du service formation •SUITE 2025 : l’année du « chantier Data » pour les Directions Formation ? •SUITE
Gemini 2.0 et NotebookLM Plus : Google change la donne pour les professionnels de la formation •SUITE L’IA générative : priorité 2025 des fournisseurs… comme des Directions Formation •SUITE
L’intelligence artificielle en formation, c’est pour tous ! •SUITE Embarquez dans l'IA ! C'est maintenant… •SUITE
ARTICLES RÉCENTS DANS LA MÊME RUBRIQUE | pratiques
Tutorat augmenté : quand l'IA aide les formateurs à redessiner l'accompagnement pédagogique •SUITE Comment le numérique outille l'andragogie •SUITE
S'assurer contre l'échec d'un projet Digital Learning •SUITE Upskilling et reskilling : le grand chantier des compétences de demain •SUITE
Digital learning : les neuf pièges qui ruinent un projet avant même son lancement •SUITE La métamorphose du vendeur : entre IA et intelligence émotionnelle, les nouvelles armes de la performance commerciale •SUITE
Impliquer le terrain et les opérations comme moteur d’organisation apprenante •SUITE Prochains événements incontournables par les Premiums du Digital Learning •SUITE
La guerre des data aura-t-elle lieu ? •SUITE Andragogie : le retour aux fondamentaux de la formation pour adultes •SUITE
page précédente retour à l'accueil tous les articles
À LIRE CETTE SEMAINE
Le tout et les parties : montée en puissance de... •SUITE
Tutorat augmenté : quand l'IA aide les formateurs à... •SUITE
L'OPCO EP à la croisée des chemins : entre consolidation... •SUITE
Comment le numérique outille l'andragogie •SUITE
Le niveau de français en entreprise : ennemi public méconnu... •SUITE
S'assurer contre l'échec d'un projet Digital Learning •SUITE
OFFRES D'EMPLOI
Développeur PHP/Linux Confirmé (H/F)
ITycom
Chargé de Projets d’Exploration en Innovation Pédagogique H/F
Neoma Business School
ILS INFORMENT
Mandarine Academy : Comment instaurer une culture proactive pour prévenir les accidents...
EXPERQUIZ : Comment l’IA révolutionne l’évaluation
PROCHAINS ÉVÉNEMENTS
Designer de Ressources E-learning
31 MARS 2025 / ISTF
Bootcamp spécial IA : produire des formations à l’aide de l’Intelligence Artificielle
du 31 MARS 2025 au 02 AVRIL 2025 / ISTF
LES PLUS LUS
L'upskilling à l'IA : Schneider Electric mise sur un...
Course AI : l’outil que la communauté Moodle attendait
L'IA réinvente la création de cours en ligne avec un...
Cyberattaques sur les LMS : prévenir plutôt que guérir
Comment réussir votre écosystème digital de formation
Quand le LMS devient l'orchestrateur des talents et des...
Veille ou acquisition d’une plateforme de formation :...
2025 : l’année du « chantier Data » pour les Directions...
• SUIVRE ELL
INSCRIPTION NEWSLETTER CONTACTEZ NOUS PUBLIEZ OFFRE D'EMPLOI PUBLIEZ ACTUALITÉ MENTIONS LÉGALES CENTRE DE PRÉFÉRENCES
www.e-learning-letter.com - © copyright e-learning Media 2025 - tous droits réservés - déclaration CNIL n°1717089 - email : informations@e-learning-letter.com - création : Fair Media ®