Le sujet de l’intelligence artificielle en éducation fait couler pas mal d’encre et soulève beaucoup de questions. Cet article a pour but de faire le tour de quelques sujets essentiels pour la gestion de l’éducation. Le nouveau domaine disruptif qu'est l'I.A. peut être enseigné, accompagné des outils opérationnels qui touchent aux données de gestion des élèves et des professeurs.
Qu’est-ce que l’intelligence artificielle ?
“L'intelligence artificielle (IA) est un ensemble de théories et de techniques visant à réaliser des machines capables de simuler l'intelligence humaine.
Souvent classée dans le groupe des mathématiques et des sciences cognitives, elle fait appel à la neurobiologie computationnelle (particulièrement aux réseaux neuronaux) et à la logique mathématique (partie des mathématiques et de la philosophie). Elle utilise des méthodes de résolution de problèmes à forte complexité logique ou algorithmique. Par extension, elle comprend, dans le langage courant, les dispositifs imitant ou remplaçant l'homme dans certaines mises en œuvre de ses fonctions cognitives.
Les applications de l'IA incluent notamment moteurs de recherche, systèmes de recommandation, compréhension du langage naturel, voitures autonomes, chatbots, outils de génération d'images, outils de prise de décision automatisée et programmes compétitifs dans des jeux de stratégie.
Ses finalités et enjeux ainsi que son développement suscitent, depuis l'apparition du concept, de nombreuses interprétations, fantasmes ou inquiétudes s'exprimant tant dans les récits ou films de science-fiction que dans les essais philosophiques. Si des outils relevant d'intelligences artificielles spécialisées ou génératives ont fait leurs preuves, la réalité semble encore tenir l'intelligence artificielle généraliste loin des performances du vivant dans toutes ses aptitudes naturelles”.
Source : wikipedia https://fr.wikipedia.org/wiki/Intelligence_artificielle
À quel moment, un manager de l’éducation va devoir faire des choix ?
L’usage du mot manager de l’éducation est ici très généraliste. Il faut le prendre dans le sens d’une personne décisionnaire dans le choix, l’usage…d’une intelligence artificielle qui va participer à son travail.
Les choix possibles sont les suivants
choisir des IA à être enseignées ou utilisées par
- des étudiants
- des professeurs
- d’autres professionnels (orientation professionnelle, infirmerie,...)
- des collègues managers
choisir des IA pour gérer l’écosystème scolaire ou universitaire par
- des administratifs
- des logisticiens
- d’autres organisations interreliées
- ...
À quoi faut-il être attentif ?
Les bonnes pratiques
“Partant de ce constat, plusieurs bonnes pratiques peuvent être mises à exécution afin de limiter et de prévenir au maximum les biais d’échantillonnages et cognitifs. À ce titre, nous avons listé 10 règles d’or à respecter lors d’un projet d’IA :
- Sélectionner des données réelles, provenant de la même source que celles qui seront utilisées en production : plus les données d’entraînement seront fidèles à celles de la mise en production, plus les résultats seront corrects.
- Utiliser des données récentes et les actualiser autant que faire se peut car des données passées ne peuvent refléter exactement les données actuelles (évolution des pratiques, des façons de penser etc.).
- Avoir une quantité suffisante de données : de manière à en dégager des tendances objectives.
- Partir d’un besoin métier et identifier l’utilisateur cible avec précision : il est en effet beaucoup plus difficile d’élaborer un système d’IA si son objectif n’est pas tangible et clairement défini. Par ailleurs, connaître l’utilisateur cible, qui fera donc partie intégrante de l’amélioration continue de l’IA, permet de prendre en considération ses potentiels biais.
- Communiquer auprès des personnes en charge de l’entraînement et les former en amont : de même, plus la communication et les bonnes pratiques à adopter seront claires, plus les doutes et les erreurs seront écartés lors de l’entraînement.
- Faire usage de la validation indépendante : les performances d’un algorithme doivent être validées sur des données indépendantes, n’ayant pas servi à son apprentissage.
- Former une équipe multidisciplinaire : il paraît essentiel d’être en mesure d’apporter un regard critique sur la solution développée et ses performances, et de toujours veiller à ce qu’elle réponde à la question posée, et que les résultats obtenus fassent sens et ne risquent pas d’être entachés de biais.
- S’assurer que les variables utilisées pour l’entraînement sont cohérentes et pertinentes avec le résultat visé : pour un chatbot par exemple, il convient de préparer l’algorithme à des questions auxquelles il devra faire face lors de la mise en production.
- Utiliser des outils pour identifier les biais : Lime, Open Scale, AI Fairness 360, …
- Enfin et surtout, éviter de trop faire confiance à l’IA et garder son esprit critique : en particulier pour l’utilisateur cible, car plus l’IA sera corrigée, plus celle-ci sera efficace”.
Source : Les biais de l’IA : quels leviers pour les maîtriser ? - Romain Lamotte - 2021
https://kpmg.com/fr/fr/blogs/home/posts/2021/1/comment-maitriser-utilisation-ia.html
Une intelligence ne peut pas être laissée en roue libre. C’est de votre responsabilité de vérifier régulièrement les points précédents.
Qu’est qu’un biais cognitif en Intelligence artificielle ?
“Les biais cognitifs sont des schémas de pensée répétés qui mènent à des conclusions inexactes et subjectives. Le biais de confirmation, par exemple, fait référence à la tendance du cerveau à rechercher et à se concentrer sur l'information qui soutient ce que quelqu'un croit déjà, tout en ignorant les faits qui vont à l'encontre de ces croyances, malgré leur pertinence. Le biais d'attribution quant à lui se produit lorsqu'une personne essaie d'attribuer des raisons ou des motivations à ses actions ou à celles d'autrui, sans que ces raisons ou motivations ne reflètent forcément la réalité.
Les biais cognitifs peuvent nous aider à prendre des décisions plus rapidement, mais parfois au détriment de toute rationalité. Au total, 180 biais altérant notre jugement ont été recensés à ce jour. Un chiffre impressionnant qui amène avec lui une remise en question de la justesse et de l’impartialité de nos prises de décision quotidiennes.
Pour autant, les biais dits cognitifs ne représentent pas la seule définition de ce qu’est un biais. En statistiques par exemple, la collecte de données auprès d’un échantillon non représentatif de la population générale constitue un "biais d'échantillonnage". Les résultats produits ne peuvent pas conduire à des conclusions se rapportant à l’ensemble de la population.
Il faut alors revenir sur les principes de base des solutions d’Intelligence Artificielle pour comprendre les implications que peuvent avoir l’ensemble de ces biais. Tout d’abord, une intelligence artificielle est conçue par un humain. Elle peut, de fait, devenir une loupe grossissante de ses propres biais. Parmi ceux-là, mentionnons qu’en la matière, on ne trouve que ce que l’on cherche : une IA ne fait que reproduire ce pour quoi elle a été développée et entraînée, elle ne répond qu’à la question qui lui est posée, il faut donc veiller à ce que celle-ci soit correctement formulée.
Ensuite, une IA est entraînée sur la base d’exemples connus, sélectionnés par un humain. Il est donc essentiel que ces exemples soient fiables, en quantité suffisante, et eux-mêmes non entachés de biais – biais d’échantillonnage par exemple”.
Source idem : Les biais de l’IA : quels leviers pour les maîtriser ?
Autre risque non moins conséquent l’usage des données par d’autres utilisateurs ou des utilisateurs non identifiés.
Ce point touche deux sujets distincts
- la cybersécurité
- les portes dérobées
Pour le premier point, le sujet est vaste, la donnée gérée par de l'intelligence artificielle n’est pas protégée de par ce fait. Et, plus la donnée est sensible et moins elle doit être directement manipulable par des tiers (humains ou technologiques) internes ou externes. À chaque fois qu’il y a des passerelles, des portes ouvertes et des ponts vers d’autres systèmes, cela multiplie les risques.
Le deuxième point est plus sensible et difficile car il faut évaluer le risque. Comme indiqué dans la partie cognitive, un programme informatique est réalisé par un être humain qui le fait développer par d’autres êtres humains. Il y a donc, déjà des risques de défaut dans le modèle qui peuvent se multiplier et s’intensifier avec le temps. Par exemple, un programme humanitaire peut devenir avec le temps un programme purement financier si un grain d’ADN non souhaité de nature financière est introduit.
Mais, le vrai risque n’est pas celui de l’erreur mais de la volonté de mettre en place des processus internes qui ne correspondent pas à la volonté du client. Le problème peut venir de l’entreprise ou d’une initiative personnelle d’un employé. Un exemple, une intelligence artificielle a besoin de croiser le plus de données possibles afin d'affiner son fonctionnement et pourrait utiliser vos données dans ce sens à votre insu. C’est pourquoi il est important de signer des protocoles de confidentialité avec ces fournisseurs de services, surtout si cela n’existe pas dans les protocoles de commercialisation.
Quant à des programmes non connus qui auraient pu être installés à l’insu de tout le monde, quelquefois impossibles à détecter, mais qui finissent toujours par remonter à la surface. C’est pourquoi nous devons être extrêmement rigoureux avec l’usage et la sécurité des données afin qu’une partie des problèmes ne vous soient pas imputables ultérieurement, raison supplémentaire de former son personnel de façon efficace et éthique. Et si les protocoles mis en place par votre communauté ou pays ne vous semblent pas assez efficaces ou éthiques… alors rien ne vous empêche de créer vos propres documents contractuels complémentaires avec vos souhaits.
Et, si l'intermédiaire ou le créateur de la solution refuse de signer, alors dites-vous qu’il ne peut pas être un bon partenaire pour prendre soin et gérer vos données. N’oubliez pas que vous êtes client même d’un système clef en main et un client doit être servi selon ses désirs et il ne doit pas se contorsionner pour entrer dans un produit existant. Privilégiez si vous en avez les moyens des outils faits sur mesure ou qui sont modulables.
L’intelligence artificielle est en train de changer le monde
L'intelligence artificielle reste un outil qui doit rester à notre service, qui est là pour nous aider dans notre travail. Révolutionner le monde de l’éducation, est compliqué. Pour éviter de se tromper dans ses choix, des ressources, des partenariats, des groupes de travail sur les mêmes thèmes sont accessibles. Nous ne sommes pas les seuls à faire face à ces choix.
Source image : Pixabay - Hobim
Voir plus d'articles de cet auteur