Des matériaux obéissants à leur concepteur : le design microstructurel
Par la simple orientation de structures du matériel, on peut obtenir des propriétés directionnelles et orientables.
Publié le 07 février 2022 Mis à jour le 10 février 2022
Stupide l'intelligence artificielle ? Comme pour un enseignant qui demande à un étudiant d'expliquer son raisonnement, nous nous demandons comment une Intelligence artificielle (I.A.) fait pour en arriver à ses résultats, surtout quand leur exactitude est démontrée... mais sans qu'on sache sur quoi elle se base pour les prédire. Bref, elle n'est pas expliquée.
Le fait que nous soyons incapables de le savoir tient surtout au mode d'opération de l'I.A. l’apprentissage profond, qui n'a pas été programmé pour fournir ce genre de détails. Ce qu'une I.A. remarque comme corrélations entre des millions de données et de paramètres, elle ne nous le dit pas.
Quand il s'agit d'expliquer la façon dont quelques pixels sur une image sont disposés par rapport à d'autres, ou comment un certaine séquence se répète parmi des milliards de possibilités, il lui manque le vocabulaire.
On trouve des dizaines d'exemples comme ceux-ci :
«Les images ainsi générées sont inutiles aux yeux humains, mais elles cachent une signature de la COVID-19 que l'intelligence artificielle est capable de détecter – même si les chercheurs admettent ne pas savoir ce que l'outil détecte, exactement.»
«Une nouvelle stratégie de détection mise au point à Polytechnique Montréal» - Radio-Canada
These Algorithms Look at X-Rays—and Somehow Detect Your Race
A study raises new concerns that AI will exacerbate disparities in health care. One issue? The study’s authors aren’t sure what cues are used by the algorithms.
Le problème est si fréquent qu'il pose des questions éthiques. Face à une situation aussi frustrante, ne pas comprendre ce qui se passe, l'INRIA entend bien apporter une solution avec le projet Antidote.
Pour fournir des explications de haute qualité pour les prédictions de l'IA, basées sur l'apprentissage automatique, il faut, entre autres :«Le but est que le système puisse formuler l'explication d'une manière clairement interprétable, voire convaincante.
Le projet Antidote favorise une vision intégrée de l'IA explicable (XAI), où les caractéristiques de bas niveau du processus d'apprentissage profond sont combinées avec des schémas de plus haut niveau propres à l'argumentation humaine.
Le projet Antidote se base sur trois considérations :
- dans les architectures neuronales, la corrélation entre les états internes du réseau (par exemple, les poids des nœuds individuels) et la justification du résultat de la classification faite par le réseau n'est pas bien étudiée ;
- les explications de haute qualité sont cruciales et elles doivent essentiellement se baser sur des mécanismes d'argumentation ;
- dans des situations réelles, l'explication est par nature un processus interactif impliquant un échange entre le système et l'utilisateur.
Pour l'article complet :
Le projet Antidote ou l'IA explicable
En savoir plus sur cette actualité