Par Frédéric Duriez  | f.duriez@cursus.edu

Évaluer la pertinence d'une information : un défi de sensibilité pour l'intelligence artificielle

Créé le mardi 15 novembre 2016  |  Mise à jour le mardi 29 novembre 2016

Évaluer la pertinence d'une information : un défi de sensibilité pour l'intelligence artificielle

L'intelligence artificielle vise à apporter des réponses proches de celles qu'un humain donnerait s'il était doué de mémoire et de capacité de calcul extraordinaire..

Outre la force brute liée à la puissance des processeurs, cela passe par une prise en compte fine du contexte et des aspects émotionnels, pour identifier les informations qui peuvent être pertinentes pour l'individu qui reçoit l'information.

Le test de Türing : la machine derrière la porte

"L'intelligence artificielle (IA) est une machine qui est capable de donner à un observateur l'impression de l'intelligence humaine" nous dit Michele SEBAG dans une vidéo d'introduction très intéressante de Sam-Network.

Elle nous rappelle le principe du test de Türing. Le mathématicien imagine en 1950 un test d'imitation. Une personne est dans une pièce et communique avec deux autres pièces. Dans l'une se trouve une machine, dans l'autre un être humain. Notre personne pose des questions en s'adressant à X ou à Y, sans savoir lequel est l'humain. Si à la fin de sa série de questions, elle ne peut pas déterminer lequel est l'humain, alors la machine peut être considérée comme "intelligente". Le romancier Arthur C. Clarke va le premier utiliser et populariser l'expression "test de Türing". Plus de 60 ans plus tard, le défi que représente ce test fascine toujours.

Ashok GOEL est professeur en intelligence artificielle. Une partie de ses cours se passe en e-learning. Il a sans doute pensé au test de Türing lorsqu'il a ajouté Jill Watson, outil d'intelligence artificiel, à l'équipe de tuteurs chargés d'accompagner ses apprenants. Il n'a pas prévenu les étudiants qui ont donc reçu des réponses sur les forums d'un tuteur numérique et de tuteurs humains. La machine a démarré avec quelques réponses maladroites. Progressivement, elle a appris grâce aux rectifications apportées par ses collègues humains, et à la mémoire de toutes les réponses précédentes sur les forums.

A la fin du trimestre, ses réponses étaient pertinentes pour les questions de routine à plus de 97%. Watson est maintenant utilisé dans d'autres cadres, comme la formation des étudiants en troisième année de médecine, en Italie.

Comprendre l'implicite

La logique et le calcul ne suffisent pas à donner le sentiment d'intelligence. Il faut aussi être malin, prendre en compte la situation, comprendre le sens des phrases. Michele SEBAG nous explique que la logique conduirait une machine à qui on demande "vous avez l'heure ?" à répondre simplement "oui"... Mais une machine intelligente réagira en donnant l'heure... On pense à la "métis" d'Ulysse, et aux différentes formes d'intelligence mises en évidence par Howard GARDNER.

L'humanité a été impressionnée et émue par la victoire de Deep Blue en 1997 contre Kasparov. Les quatre victoires sur cinq match du robot Alphago contre Lee SEDOL ont également franchi un cap en 2016.

Néanmoins, Michele SEBAG nous indique que ce qui nous semble complexe et impressionnant, comme ces victoires, est plus facile à obtenir qu'une combinaison de tâches qui réclament la mobilisation de plusieurs formes d'intelligences. Engager une discussion informelle cohérente est sans doute beaucoup plus complexe !

Shannon : mesurer la quantité d'information

Mathématicien plutôt discret né dans le Michigan, Claude SHANNON n'a pas marqué les mémoires comme d'autres scientifiques du XXème siècle. Et pourtant, ses recherches ont laissé une empreinte dans le monde des télécoms, de l'informatique, du traitement de l'image ou encore de l'intelligence artificielle.

Claude SHANNON aurait eu 100 ans cette année, et le Musée des Arts et Métiers de Paris lui consacrera une exposition à partir de mi-décembre 2016.

Claude SHANNON utilise les probabilités pour quantifier l'information. Plus une donnée est probable, moins elle porte d'information. Si vous êtes amateur de mots croisés, et si vous savez qu'un mot se termine par "e"... vous ne savez pas grand chose. Si vous savez qu'il commence par un "y"... vous disposez d'une bonne information.

Plus on sait ce que vous allez dire, moins on est surpris... moins vous apportez de l'information. En revanche, l'inattendu, dans ce modèle, est porteur d'information.

Claude SHANNON va donc traduire l'information comme une fonction de la probabilité des informations apportées (P).

shannon : quantifier l'information

Dans son intervention pour les 100 ans de Claude SHANNON à l'institut Henri Poincaré, Jean-Louis DESSALLES nous donne quelques exemples. Un homme qui mord un chien est une action peu probable, et c'est donc une information. Une princesse victime d'un accident, c'est plus rare qu'une anonyme... Une autre illustration est la loi du "mort par kilomètre" bien connue des journalistes. Un mort à moins d'un kilomètre de chez moi, c'est une information. Si maintenant il se situe à cent kilomètres, il en faudra davantage pour que je m'arrête sur l'information.

La quantité d'information n'est pas la pertinence

La probabilité permet certes de mesurer la quantité d'information dans un cadre technique. Mais elle ne dit rien de la pertinence de cette information. La théorie de la simplicité de Jean-Louis DESSALLES tente de définir la pertinence.

Il fait remarquer que pour celui qui reçoit l'information.... ce n'est pas simplement une question de probabilité. Pour un statisticien, il est très probable que l'on trouve deux élèves d'une classe de 30 élèves nés le même jour. Et pourtant, lorsqu'on le découvre, les membres du groupe le perçoivent comme une coïncidence rare ! La pertinence a plus à voir avec la probabilité perçue d'un événement qu'avec la probabilité réelle. SHANNON dit lui-même que ce qui fait l'information, c'est la surprise.

Si j'ai un accident de circulation avec une des plus grandes stars du cinéma mondial, c'est une information suffisamment importante pour que je la raconte à tous mes amis... Mais il est peu probable que la star en parle autant autour d'elle.

La formule de Claude SHANNON ne prend pas en compte le sens et donc la sémantique des messages et elle ne parvient donc pas à rendre compte de notre intérêt plus ou moins marqué pour une information.

Enfin, Jean-Louis DESSALLES nous dit ironiquement que parfois, dans le champ pédagogique, le professeur croit transmettre des informations, mais ses élèves ne perçoivent que du bruit. Ce qui est une information pour les uns ne les pas autant pour les autres !

 

Claude Shannon - exceptions

Compresser l'information

L'information nous est donnée selon une forme qui comporte souvent des redondances. Ces redondances sont indispensables dans un environnement où le message peut se dégrader, ou lorsque des humains communiquent entre eux, avec une attention moyenne... Rich COCHRANE nous explique la compression à partir du pictogramme de la maison, grand classique de l'iconographie informatique. Plus il est possible de comprimer un message ou une image sans perte de qualité, moins elle comporte d'information, moins elle est complexe à décrire.

La compression permet un traitement plus rapide de l'information. Elle évite aussi que nos disques durs ne soient pleins de toutes nos photos et films trop rapidement. Mais quel lien faut-il voir avec l'intelligence artificielle ?

Pertinence et compression

Jean-Louis DESSALLES nous invite à imaginer que le tirage du loto donne le résultat 1, 2, 3, 4, 5 et 6. A priori, ce résultat n'est pas plus improbable que 4, 42, 45 , 8, 23, 36. Mais intuitivement, les joueurs ont le sentiment que ces résultats ne tomberont jamais ! Cédric VILLANI indique dans la vidéo qu'un buraliste a même refusé d'enregistrer cette grille, au motif "qu'on ne joue pas pour perdre" !

Le jour où ces six chiffres tomberont à un résultat de loterie nationale, même les personnes qui n'ont jamais joué en parleront comme d'un phénomène extraordinaire, sauf les statisticiens qui tenteront d'expliquer que cette combinaison n'avait pas moins de chance de tomber qu'une autre.

En s'appuyant sur d'autres théories mathématiques, il nous définit l'inattendu comme l'écart entre la complexité causale, celle que nous donne la formule de Shannon, et la complexité de description. obtenir 1-2-3-4-5-6 à un tirage de loterie a une complexité causale forte : c'est pratiquement impossible à reproduire, mais une complexité de description faible. La rencontre d'une star à l'occasion d'un accident de circulation est le résultat de chaînes causales complexes, mais ça se raconte très vite. La complexité de description est faible.

Et l'émotion ?

La théorie de la simplicité qui propose de définir la pertinence comme l'écart entre la complexité pour produire l'événement et la complexité de description ne résout pas tout. Dans la plupart des événements de la vie, en particulier ceux qui nous intéressent, il est impossible de calculer les probabilités d'occurence d'un événement. D'autres éléments, comme l'émotion attachée à un événement sont difficilement quantifiables.

Morgane TUAL nous rappelle que les mécanismes de l'émotion sont encore mystérieux chez les êtres humains. Les machines pour leur part ne ressentent pas d'émotions. Et si elles en ressentaient, elles ne le ressentiraient pas de la même manière qu'un être humain.

En revanche, il est possible, et utile de simuler les comportements, mécanismes non verbaux, comme l'inflexion de voix, qui manifestent les émotions. Le poids qu'un humain attribue à une information ne sera pas le même selon l'émotion du locuteur, et en particulier ses marques d'intérêt pour le problème que je lui soumets...

Plus encore, en reproduisant les mécanismes de l'émotion, la machine devient capable de produire elle-même des émotions chez celle ou celui qui l'utilise...

emotions et intelligence artificielle

Donner l'impression à l'utilisateur qu'il a affaire à une intelligence humaine oblige à manipuler des algorythmes complexes et des interfaces savantes.

Les mécanismes de la pensée humaines sont encore mal connues, et les machines n'utilisent pas les mêmes. Les avancées sont cependant considérables. Tous les domaines que l'on croit réservé aux humains (la créativité, l'émotion, la pensée complexe...) sont autant de défis pour les développeurs. Et nous sommes régulièrement informés des "victoires" de l'intelligence artificielle et régulièrement invités à débattre sur les questions "que reste-t-il à l'homme ?", et "quelle civilisation préparons-nous ?".


Illustrations : Frédéric Duriez

Ressources

Sam-Network De l'intelligence artificielle à l'intelligence humaine interview réalisée en 2013, consultée le 19 novembre 2016
https://www.sam-network.org/video/de-l-intelligence-humaine-a-l-intelligence-artificielle

H+  "Une IA du MIT passe le test de Türing avec succès"
https://humanoides.fr/mit-test-de-turing/*

La Reppublica Jaime D'ALESSANDRO "Intelligenza artificiale, "Watson" di IBM insegna in ospedale" - 14 novembre 2016
http://www.repubblica.it/salute/2016/11/14/news/se_watson_della_ibm_comincia_a_fare_la_il_professore-152015817

Jean-Louis DESSALLES - intervention pour l'institut Henri Poincaré Théorie de l'information : nouvelles frontières -  octobre 2016
https://youtu.be/fkj5gIobpbg?list=PL9kd4mpdvWcDMCJ-SP72HV6Bme6CSqk_k

Musée des arts et métiers - Site de l'exposition Shannon 100 consulté le 19 novembre 2016
http://shannon100.com/index.php/exposition/

Blog recherche de Mines Telecom Théorie de la simplicité : apprendre la pertinence aux IA  daté du 28 octobre 2016, consulté le 19 novembre 2016
https://blogrecherche.wp.mines-telecom.fr/2016/10/28/theorie-simplicite/

Le Monde - Morgane TUAL "Intelligence artificielle : une machine peut-elle ressentir de l'émotion ?" - publié le 12 octobre 2015, consulté le 19 novembre 2016
http://www.lemonde.fr/pixels/article/2015/10/12/intelligence-artificielle-une-machine-peut-elle-ressentir-de-l-emotion_4787837_4408996.html

Poster un commentaire

Commentaires

0 commentaire