Le modèle pédagogique et l’intelligence artificielle
Quand les ingénieurs pédagogiques remplacent les professeurs, voici comment on parle aujourd’hui de la problématique du modèle en classe :
“S'il est difficile de définir un bon modèle conceptuel, on peut par contre poser qu'un bon modèle logique relationnel est un modèle où la redondance est contrôlée.
On peut alors poser qu'un bon modèle conceptuel est un modèle conceptuel qui conduit à un bon modèle relationnel, après application des règles de passage E-A ou UML* vers relationnel. Mais on ne sait pas pour autant le critiquer avant ce passage, autrement qu'à travers l'oeil d'un expert.
A défaut de disposer d'outils systématiques pour obtenir de bons modèles conceptuels, on cherche donc à critiquer les modèles relationnels obtenus.
La théorie de la normalisation est une théorie qui permet de critiquer, puis d'optimiser, des modèles relationnels, de façon à en contrôler la redondance”.
Sources : Les problèmes soulevés par une mauvaise modélisation
https://stph.scenari-community.org/bdd/nor1-lin/co/norUC001.html
*“Le Langage de Modélisation Unifié, de l'anglais Unified Modeling Language (UML), est un langage de modélisation graphique à base de pictogrammes conçu pour fournir une méthode normalisée pour visualiser la conception d'un système. Il est couramment utilisé en développement logiciel et en conception orientée objet.”
Sources : Wikipédia UML - https://fr.wikipedia.org
Est-ce que les enfants sont considérés dans cette modélisation comme des programmes ou des objets ? Voici une excellente question à se poser. Les concepts clefs de ce texte sont les suivants :
Atteindre un bon modèle
Aujourd’hui, le modèle pédagogique est basé sur la relation entre l’objet d’apprentissage et l’élève. Et, il est en train de glisser vers celui des compétences. Le modèle n’est toujours pas figé.
Quel est le bon, quel est le mauvais modèle ? Qui doit choisir ? Les politiques ? La machine ? Les politiques pour la machine ? Sur quels critères ?
En Suisse, un des système s’appelle HarmoS.
"Selon Herzog, la réforme HarmoS cède à une logique industrielle de l’éducation.
Mais cette évolution n’est pas nouvelle: depuis le 20e siècle, la massification de l’école, signe fort d’une évolution démocratique, a conduit à une organisation économique des systèmes scolaires.
Cette réforme oriente les systèmes éducatifs vers un pilotage par évaluation externe des outputs. L’uniformisation par directives ne trouvant pas toujours écho dans la réalité, ne faut-il pas, pour répondre au double objectif d’efficacité et d’équité, considérer l’obligation en termes de résultats comme une solution complémentaire envisageable ?
Néanmoins, et en accord avec Herzog, la réforme HarmoS semble préoccupante de part l’instrumentalisation des chercheurs et l’exclusion des enseignants des décisions réservées aux politiques. Pour enrichir le mouvement de réforme, enseignants et chercheurs doivent conserver un rôle autre que celui d’exécutants dans la confrontation démocratique".
Sources : Massification de l’école, standardisation et égalité des acquis Un contrepoint à l’article de W. Herzog - par Marcel Crahay - 2008 - Fribourg
http://www.rsse.ch/wp-content/uploads/2012/12/SZBW_8.1_Crahay.pdf
La machine gère bien les masses, mais est-ce que la gestion des masses par la standardisation, par la machine est réellement la solution ? Il existe une autre approche qui correspond à un nouveau modèle pédagogique :
“L'approche par compétences est devenue le paradigme pédagogique généralisé dans le système scolaire québécois (tout comme dans bon nombre de pays occidentaux, d'ailleurs). C'est l'aboutissement actuel d'une évolution pédagogique qui, sur plusieurs décennies, nous a fait passer d'une pédagogie encyclopédiste à une pédagogie behavioriste et, finalement, à une pédagogie socioconstructiviste d'où découle, dans l'élaboration des programmes de formation, l'approche par compétences”.
Sources : Trois modèles pédagogiques - par Discas
http://www.csrdn.qc.ca/discas/Apprentissage/TroisModeles.html
La notion de compétence est la suite logique au contexte complexe évoqué précédemment. L’école forme de futurs employés, travailleurs, ingénieurs, entrepreneurs. Elle se doit de suivre les évolutions de société.
“Il existe dans la littérature une panoplie de définitions du concept de compétences. Lafortune (2008) note que ces définitions contiennent généralement des dimensions variées et peuvent parfois sous-tendre des perspectives théoriques différentes, voire opposées. En ce sens, la définition de compétence est polysémique et cette profusion risque d’engendrer la confusion dans la compréhension de ce concept complexe, d’où la nécessité de faire un choix éclairé lorsqu’on envisage un virage vers une logique de formation par compétences.
Pour Le Boterf (2006), le concept de compétence doit être en accord avec l’évolution des contextes et des situations de travail. Compte tenu de la montée de la complexité et de l’imprévisibilité des situations professionnelles, l’auteur explique qu’on ne peut plus exiger du professionnel d’exécuter des plans préconçus. Celui-ci doit plutôt résoudre des problèmes complexes, prendre des initiatives et avoir un certain degré d’autonomie. L’auteur argumente en mettant l’accent sur l’évolution actuelle de l’organisation du travail où la responsabilité sur la gestion d’une situation professionnelle prend le pas sur l’exécution des tâches parcellarisées et de type procédural.”
Sources : L’approche par compétences Un levier de changement des pratiques en santé publique au Québec - par Cora Brahimi, agente de planification et de recherche Vice-présidence aux affaires scientifiques, Institut national de santé publique du Québec - 2011
https://www.inspq.qc.ca/pdf/publications/1228_ApprocheCompetences.pdf
En fait, on est très loin de la norme et des comparaisons de masse sur laquelle repose l’intelligence artificielle. Le monde de demain ne va pas demander à l’être humain d’être un programme normé ou un objet répertorié selon des protocoles quantifiés. Mais au contraire, il va lui demander d’être disruptif face à ce protocole, voire agile et créatif.
La notion de modèle soulève aussi plusieurs questions à répondre dans les prochaines années : Y aurait-il de mauvais modèles ? Est-ce que les ingénieurs peuvent se tromper ? Est-ce qu’il y a des élèves à classer dans des catégories dîtes mauvaises ?
L’un comme l’autre soulève des questions face à une intelligence artificielle factuelle. Si les ingénieurs pédagogiques se trompent en créant le modèle, ils peuvent induire la machine en erreur sur les processus à suivre. On ne parle pas d’un processus pour une classe, mais pour des milliers voir des millions d’élèves. De la même façon si l’intelligence artificielle classe un ou des élèves dans une catégories qualifiée comme mauvaise. Y-a-il un droit de recours ? ou la possibilités de faire amende honorable ou les efforts adéquat pour changer de catégories ? Y-a-t-il un droit à l’oubli en cas de faux pas ?
Une logique relationnelle contrôlée
Le contrôle implique les deux processus préalables de la norme et de la surveillance. La norme c’est la majorité. La surveillance, c’est la castration de la différence. Où met-on la créativité ? La relation entre les concepts, entre les actions, entre les individus est source de diversités et de richesses. Si celles-ci sont contrôlées alors, il faut s’attendre à un appauvrissement de l’offre, des champs d’action et des typologies d’acteurs. Il faut s’attendre aussi à une standardisation et à un arrêt des progrès dans les domaines de l’innovation, des recherches, de l’art, de tout ce qui fait une économie vivante.
Voici l’exemple d’une logique relationnelle nourrissante dans un contexte d’apprentissage des soins infirmiers :
“Les activités d’étayage
Les activités d’étayage définies par Bruner sont autant de nature motivationnelle, conceptuelle, qu’organisationnelle. Ce sont :
- l’enrôlement : c’est la mise en marche de l’activité de formation, la mise en évidence de son thème, de son importance, de ses côtés attractifs, en somme de la valorisation de ses buts et de son utilité. C’est une étape qui tend à soulever l’intérêt de l’étudiante, à susciter sa motivation, à favoriser son adhésion au sujet d’étude et son engagement dans son apprentissage. Il s’agit en somme par ce moyen de lui donner l’envie d’apprendre...
- la réduction des degrés de liberté : il est ici question de l’autonomie du sujet, de son développement graduel et de ses limites. Dans cette approche socioconstructiviste, l’étudiante doit, selon son niveau et ses capacités, être considérée autonome et responsable de ses apprentissages. Mais lorsque nécessaire, l’enseignante peut quand même donner un coup de pouce, combler certaines lacunes, en donnant quelques orientations ou en fournissant selon les cas, des explications supplémentaires, ce qui permet ensuite à l’étudiante de développer ses propres stratégies. Cette aide ponctuelle, appropriée aux besoins, ne doit toutefois jamais nuire à l’initiative et la créativité de l’étudiante...
- le maintien de l’orientation : une activité d’apprentissage, que ce soit une étude, un travail ou une situation de soins en stage, comporte des objectifs à atteindre, une orientation définie et l’étudiante doit mobiliser ses énergies dans cet axe pour réussir. Ce qui signifie pour l’enseignante, de lui apporter le soutien de ses efforts par des encouragements, par son aiguillage vers des ressources utiles et par l’articulation des moyens qui l’aident à maintenir le cap et favorisent sa réussite...
- la signalisation des caractéristiques déterminantes : il s’agit ici de l’aspect conceptuel de la tâche que ce soit pour un travail, une présentation orale, la préparation à un stage, où l’enseignante souligne par divers moyens (description, images, exemples) les caractéristiques du travail demandé qui sont pertinentes pour son exécution réussie. Cette signalisation comporte une part d’évaluation, elle fournit une information claire sur la différence entre ce que l’étudiante produit et ce que l’enseignante attend d’elle. Cette signalisation se fait entre autres, en stage, par le feed-back de l’enseignante sur le travail de la stagiaire...
- le contrôle de la frustration : le processus d’apprentissage est parfois fastidieux et il arrive que les étudiantes se découragent. Un bon dosage de la difficulté des activités et un peu de soutien affectif occasionnel en cours de travail, permettent d’éviter, ou du moins, de diminuer leur frustration et de limiter chez elles le sentiment d’aliénation ou de résignation obligée...
- la démonstration ou présentation de modèles : de manière à fournir à l’étudiante des orientations claires, l’enseignante peut lui offre des exemples, des modèles utiles, sans toutefois lui fournir la solution du travail proposé.
Rappelons que le socioconstructivisme est une construction du savoir par l’étudiante elle-même et non pas un calque de ce qu’énonce l’enseignante. Cependant, il est important qu’elle comprenne bien ce qu’elle doit accomplir et à ce point de vue, des modèles, des plans de soins-types, des illustrations, peuvent lui être très utiles…”
Sources : Prendre soin, soins infirmier
http://www.prendresoin.org/?p=877
Mettre l’être humain et son bien-être au centre de la pédagogie et non pas la surveillance et la normalisation. Car ceux-ci ne devraient quant à eux n’être que des outils et non pas des centres de focalisation pédagogiques.
Un bon modèle conceptuel est un bon modèle relationnel si il est validé par le schéma informatique
Le schéma informatique est la façon dont est modélisé l’intelligence artificielle de la machine. Si elle est programmée pour garder des moutons, nous deviendrons des moutons, si elle est programmée pour challenger les concepts et les hommes alors elle nous fera grimper des montagnes.
“Conception des bases de données relationnelles
Les BD (base de données) constituent le cœur du système d’information. La conception de ces bases est la tâche la plus ardue du processus de développement du système d’information.
Les méthodes de conception préconisent une démarche en étapes et font appel à des modèles pour représenter les objets qui composent les systèmes d’information, les relations existantes entre ces objets ainsi que les règles sous-jacentes.
La modélisation se réalise en trois étapes principales qui correspondent à trois niveaux d’abstraction différents :
I. Niveau conceptuel : représente le contenu de la base en termes conceptuels, indépendamment de toute considération informatique.
II. Niveau logique relationnelle : résulte de la traduction du schéma conceptuel en un schéma propre à un type de BD (base de données).
III. Niveau physique : est utilisé pour décrire les méthodes d’organisation et d’accès aux données de la base”.
Sources : Les bases de données
http://tecfaetu.unige.ch/staf/staf-h/tassini/staf2x/Heidi/last_bd.htm
La façon de programmer une machine ressemble à la parabole du papillon et de la tempête.
“L'«effet papillon» est une expression qui résume une métaphore concernant le phénomène fondamental de sensibilité aux conditions initiales de la théorie du chaos. La formulation exacte qui en est à l'origine fut exprimée par Edward Lorenz lors d'une conférence scientifique en 1972, dont le titre était :
« Le battement d'ailes d'un papillon au Brésil peut-il provoquer une tornade au Texas ? »”
Sources : Wikipédia - Effet papillon - https://fr.wikipedia.org
De la même façon que la façon de programmer les algorithmes chez Uber peut rendre les chauffeurs riches ou pauvres, il faut être vigilant quand aux messages et algorithmes inculqués à la machine pour garantir une bonne gestion des modèles.
“Pourquoi faudra-t-il utiliser UML ? Tout simplement parce que la majorité des nouveaux projets industriels utilisent la notation UML. Pour convaincre les récalcitrants, je pourrais citer le nom des entreprises appartenant au consortium ayant mis en place UML : DEC, HP, IBM, Microsoft, Oracle et Unisys pour parler des plus connues. Tous les cursus universitaires informatique, qu’ils soient théoriques ou plus techniques, incluent l’étude d’UML. Je pourrais enfin évoquer le nombre d’ouvrages et d’articles parus sur le sujet… Cela ne signifie pas qu’UML soit la panacée, mais que cette notation est devenue incontournable. La dernière version de la spécification UML, sortie en 2006, est la 2.1 (la précédente était la 2.0 en 2003).
Ce succès s’explique par la réussite de la normalisation des concepts objet, qui ont des avantages indéniables au niveau des applications informatiques. Ses principaux avantages sont la réutilisabilité de composants logiciels, la facilité de maintenance, de prototypage et d’extension des applications. Il aura fallu ainsi près de 30 ans (depuis 1966 avec les deux Norvégiens Dahl et Nygaard et leur langage objet SIMULA) pour que l’approche objet devienne incontournable”.
Sources : UML 2 pour les bases de données - par Christian Soutou - © Éditions Eyrolles
http://www.essai.rnu.tn/Ebook/Informatique/uml2pourlesbasesdedonnees.pdf
Attention encore à l'effet papillon. Si UML est utilisé, c’est que c’est un outil générique. Or cet outil est spécialisé dans la normalisation de l’information. Il est utile pour gérer les choses compliquées, mais est-il efficace pour gérer les informations d’un monde complexe où la normalisation n’est que le socle à partir duquel il faut être créatif ? N’y a-t-il pas d’autres outils mieux adaptés comme ceux basés sur la science de la data excellence par exemple, basé sur l’état des lieux réel et non la norme quantitative ?
Seul un expert peut remplacer le jugement du système informatique ?
Voici 20 ans que nous avons commencé à basculer d’un monde compliqué à un monde complexe. Il y a 20 ans l’expert était roi, car il dominait son domaine, aujourd’hui depuis quelques années personne ne maîtrise plus grand chose. Faudra-il des génies, des QI au delà de 155 pour devenir expert au dessus de la machine ? C’est fort probable. Ceci correspond à une personne sur 10 000 qui pourra contredire le jugement d’une machine. C’est peu et la machine leur laissera-elle prendre leur place dans un système normalisé alors qu’ils sortent eux-même de la norme ?
De plus, on ne peut pas garantir le maintien de l’intelligence humaine lorsque, tel un muscle, le cerveau risque de se réduire en capacité du fait que l’intelligence artificielle le remplace progressivement dans beaucoup de champs de compétences de sa vie. Alors comment faire ?
“En 2015 les projets de Google sur le transhumanisme et d’une possible fusion homme-machine, relance l’idée que l’homme puisse fusionner avec la machine, devenir en partie artificiel et toucher l’immortalité. Un projet qui alimente aussi bien les curiosités que les craintes.
Pour Etienne Klein « il s’agit de l’homme augmenté pour guérir des maladies et avoir des performances améliorées (…) ce n’est pas un progrès mais plutôt une rupture avec l’homme tel que l’on le connaît (…) » mais attention nous dit le physicien « l’homme augmenté n’est pas du tout garanti, il peut devenir un homme diminué, à force de déléguer toutes sortes de tâches à la machine, le cerveau peut perdre de sa capacité ».
Alors faut-il fixer une limite au progrès scientifique ? Pour Pascal Griset « cette limite est difficile à déterminer (…) pour l’instant le meilleur ordinateur est notre cerveau. La véritable question est donc de savoir si l’ordinateur du futur sera biologique ou électronique (…) car alors la limite entre l’humain et la machine n’existera même plus matériellement »”.
Sources : Intelligence artificielle, le risque de l'homme diminué - Public Sénat - mars 2018
https://www.publicsenat.fr/article/societe/intelligence-artificielle-le-risque-de-l-homme-diminue-84241
Freiner le progrès ou augmenter l’homme, voilà donc deux solutions peu satisfaisantes. Et, si la solution reposait entre les mains des sages, des éthiciens, de ceux du club des QI 155 ?
“Une IA peut en effet calculer une probabilité d’événements, choisir entre des événements une orientation possible, ce qui est ainsi le cas d’un GPS qui calcule un itinéraire, éventuellement le recalcule en prenant en compte des circonstances, voire des imprévus comme bouchons ou accidents. Mais pourtant, le GPS reste incapable de juger et évaluer, car juger et évaluer, c’est faire appel à la raison dans sa fonction de discernement prenant en compte l’état de fatigue du chauffeur, le libre arbitre, son humeur, la gestion du temps, l’empressement ou non, l’envie d’un détour, d’une halte, d’une visite.
Or une IA peut-elle avoir du discernement, être dotée d’une vision systémique qui prend en compte le désir, l’humeur, le besoin ? Une intelligence artificielle n’accomplit par définition que des tâches mécaniques, qui relèvent de la logique déductive, mais dénuées de toute intuition et de toute pensée réelle.
Dans ce contexte de mécanisation des facultés cognitives, l’être humain pourrait-il à ce point se laisser déposséder par la machine, se laisser déposséder de sa raison, y compris de sa propre conscience ?”
Sources : L’Intelligence artificielle, fascination et déshumanisation… - octobre 2016 https://www.infochretienne.com/lintelligence-artificielle-fascination-deshumanisation/
C’est la conscience qui peut-être sauvera l’homme et lui garantira une place dans le panthéon des dieux informatiques de demain. Peut-être l’intelligence artificielle en sera dotée un jour, mais on en est loin. Et, si les êtres de chair, conscients, n’ont pas pu discuter d’égal à égal avec les intelligences artificielle de silice qui gèrent les complications, peut-être arriveront-ils à cohabiter avec les intelligences quantiques qui elles survoleront les complexités.
“Nous n’en avons pas conscience tous les jours mais l’industrie informatique est à l’aube d’un changement majeur : la loi de Moore, telle que nous la connaissons aujourd’hui, va s’arrêter d’ici 3 à 4 ans maximum. L’ère de la puce de silicium vit ses derniers moments de gloire. Les processeurs, les ordinateurs, la manière de programmer vont sûrement radicalement changer dans très peu de temps.”
Sources : L’IA et la fin du Silicium : introduction aux ordinateurs quantiques - par David Rousset - avril 2018
https://www.davrous.com/2018/04/20/lia-et-la-fin-du-silicium-introduction-aux-ordinateurs-quantiques/
L’intelligence quantique est à notre porte, il est possible qu’elle change notre regard sur l’intelligence artificielle de demain et donc notre relation avec celle-ci.
Les bases de données normalisantes sont incomplètes,...
... donc les théories sont empiriques mais validées par la quantité des exemples collectés.
La notion de quantité à l’école est usuelle, mais elle suit le modèle économique basé lui aussi sur la quantité et non sur la qualité ou valeur des options. Nos fameux experts au QI 155 vont avoir du mal à exister dans ce modèle, alors qu’ils existent réellement et qu’ils seront d’une grande utilité demain. Mais, comme indiqué dans le paragraphe précédent, l’intelligence quantique est un grand espoir pour la gestion de la complexité. Elle permettra de prendre des normes de partout pour en faire une unicité de l’être et de son futur parcours.
“La psychothérapie et le développement personnel auraient-ils besoin d'un nouveau souffle ? Selon les dernières études en neurosciences, les connexions neurologiques déterminant notre façon d'être ne sont pas transformées par nos pensées mais plutôt par nos émotions et nos sensations. De plus, notre intelligence se construit jusqu'à l'âge d'un an, façonnée par nos premiers mouvements réflexes neuro-corporels.
Pour Stéphane Drouet, l'heure est venue de repenser notre conception de l'intelligence et de son évolution à la lumière des travaux sur la neuro-plasticité cérébrale et des lois de la physique quantique qui déterminent comment notre mental bâtit notre réalité quotidienne. La révolution de l'intelligence humaine au sens quantique, et au sens des neurosciences, serait un grand tournant et l'avènement d'une psychothérapie refondée. Son grand artisan serait le coeur, chef d'orchestre des cerveaux du ventre, de la tête et de la peau. Cette intelligence nouvelle génération, l'auteur la nomme quantique, car elle se manifeste dans l'invisible et à distance.
Elle redéfinit le mot « aimer », et nous donne des perspectives fascinantes pour accélérer notre évolution, guérir de nos blessures d'enfant, et démultiplier notre potentiel. Dans cet ouvrage avant-gardiste et multidisciplinaire, l'auteur nous offre une voie inédite et prometteuse pour faire progresser l'humanité et prendre l'élan nécessaire à son grand saut évolutif. Une nouvelle humanité est en devenir, capable de penser à l'unisson avec son corps, avec son ventre, avec sa tête et avec son coeur”.
L'intelligence quantique du coeur - Un potentiel illimité à notre portée par Stéphane Drouet- mai 2017
A chaque révolution technologique correspond une révolution humaine. Le quantique au coeur de l’être humain est là. On le retrouve déjà en psychothérapie. C’est juste une question de temps, mais les besoins humains en intelligence artificielle vont s’ajuster avec la technologie quantique.
“À l’heure actuelle, l’Intelligence artificielle puise sa force dans les capacités de calcul des processeurs traditionnels. Plus les capacités de calcul sont élevées, plus le traitement d’information est efficace. Les algorithmes sont d’autant plus perfectionnés qu’un système puissant supervise le traitement d’information. C’est ici qu’interviennent les performances quantiques.
Arrivant au bout des limites physiques de miniaturisation des processeurs traditionnels, les ordinateurs quantiques offrent une nouvelle voie à l’optimisation de l’Intelligence artificielle en matière de puissance de calcul. Pour le physicien Vedran Dunjko de l’Université d’Innsbruck en Autriche, « les progrès de l’apprentissage automatique (une des facettes de l’Intelligence artificielle, ndlr) résident intrinsèquement dans le pouvoir de calcul ». La société IBM a dévoilé en mai 2016 l’existence d’un Quantum Processor mettant en lumière les nouvelles possibilités en matière d’Intelligence artificielle, notamment pour le programme IBM Watson. David Wineland, physicien à la National Institute Of Standards and Technology in Boulder au Colorado, s’est montré « optimiste sur un long terme », en ce qui concerne les avancées en matière d’ordinateurs quantiques, mais rajoute qu’il « ignore ce qu’à long terme veut dire ». Néanmoins, la plupart des spécialistes s’accordent à dire que « le futur de l’Intelligence artificielle ne sera plus jamais le même » si les promesses des performances quantiques se réalisent”.
Sources : Les performances quantiques au profit de l’Intelligence Artificielle ? - par Syar Ahmady - février 2017
http://www.anthropotechnie.com/les-performances-quantiques-au-profit-de-lintelligence-artificielle/
À quoi sert tout cela en pédagogie ?
Aujourd’hui, les systèmes d’intelligence artificielle qui peuvent aider les pédagogies sont basés sur la normalisation et donc sur l’égalité de moyens. Chaque élève a un professeur, une salle de classe, des livres, un bus pour aller à l’école…
“Aujourd’hui, la plupart des programmes éducatifs sont mis en place pour mener des masses nationales ou régionales d’écoliers et d’étudiants aux diplômes selon un principe d’égalité.
C’est à dire qu’il y a un programme unique pour des centaines, des milliers, voire plus, d’êtres apprenants à former. Ces programmes standardisés sont égalitaires pour chaque étudiant, mais les taux d’échec font réfléchir à de nouveaux chemins plus équitables. En effet, si vous demandez à une panthère et à un cerf de monter à un arbre, ils sont tous les deux des êtres vivants et intelligents, mais, ils n’ont pas développé de par leurs différences les mêmes compétences. La valorisation des différences est une clef stratégique de la nouvelle éducation émergente.
Comment accompagner ces mutations alors que nous sommes à cheval entre deux façons de faire; le monde précédant fonctionnant selon le modèle hiérarchique d’avant la disruption et le monde émergeant qui veut valoriser l’apprenant en tant qu’individu ? La tentation de personnes oeuvrant selon le modèle ancien pourrait naturellement se formaliser par la décision de regrouper les élèves par classes typologiques pour permettre à tout un chacun d’être valorisé selon ses différences. Ceci peut être une tentation qui à terme peut accentuer les clivages de société. Nous pourrions alors voir sur-émerger des communautés de douance, de compétences, de différences, comme déjà on peut en constater l’existence pour les hautes écoles ou les handicaps comme celui de la surdité.
Notre façon de manager les formations aura un impact sur la structure de nos sociétés de demain. Une vie collective riche et unie ne pourra se mettre en place que par un modèle de formation qui permettra l’intégration des différences dans tous les niveaux structurels de son organisation.
La classe de demain devra pour ce fait être inclusive des différences et des compétences des uns et des autres. Manager la différence n’est pas juste l’accompagner. L’enjeu de l’éducation de demain est de faire des étudiants, des citoyens à part entière, qui vont vivre et agir ensemble. Pour y arriver, il faut que chacun trouve sa place dans la variété de la communauté de la maternelle à l’université”.
Sources : Décentralisation et citoyenneté, le pouvoir des communautés et des académies - par Virginie Guignard Legros - juin 2017
https://cursus.edu/articles/37415
Si l’égalité normative d’hier était valable dans un monde compliqué, elle ne l’est plus dans le nouveau monde disruptif et complexe qui est devant nous. Demain, c’est l’équité qui fera fois et qui sera accompagné par les technologies quantiques qui pourront en gérer toute la complexité.
Source image : Pixabay geralt
Voir plus d'articles de cet auteur