Par Alexandre Roberge  | a.roberge@cursus.edu

La boîte noire de l’intelligence artificielle

Créé le dimanche 20 novembre 2016  |  Mise à jour le mercredi 21 décembre 2016

La boîte noire de l’intelligence artificielle

L’intelligence artificielle (I.A.) fait partie de nos vies. Elle nous sollicite constamment. Par exemple, elle nous fait des suggestions sur les sites de vente à partir de nos achats précédents, nous propose des contacts ou des pages à aimer sur Facebook, etc.

Bien des concepteurs de l’I.A. considèrent qu’elle doit se rapprocher des connexions neuronales de notre cerveau afin de prendre des décisions complexes. Ils ont appelé le précepte de l’apprentissage en profondeur (deep learning). Toutefois, les informaticiens et neurologues ont le même problème : personne ne comprend comment se font les choix dans ces « boîtes noires ».

Le grand mystère

Vous avez bien lu. Actuellement, nos intelligences artificielles et nos machines apprennent… mais nous n’avons aucune idée de comment elles le font. En fait, cet apprentissage lui-même surprend déjà nombre de mathématiciens qui n’arrivent pas à entièrement l’expliquer. Une opacité qui a de quoi surprendre puisque cela signifie que nous ne savons pas pourquoi les systèmes d’intelligence artificielle arrivent à une conclusion plutôt qu’une autre. Ainsi, le système devient une boîte noire quasi impénétrable tout comme peut l’être l’ensemble de neurones de notre cerveau dont il est inspiré. En effet, les deux types d’intelligence apprennent et se développent sans que nous puissions expressément expliquer comment cela se passe et ce qui est retenu ou pas.

Les spécialistes commencent toutefois à se rendre compte des problèmes de perception des intelligences artificielles. Par exemple, la revue Nature a montré comment une intelligence peut percevoir, selon l’apprentissage reçu, des formes dans une photographie de fleurs qu’elle associe à d’autres clichés (des animaux). Le résultat de la perception est plutôt proche de l’hallucination et du psychédélisme. Et c’est le problème avec bien des I.A. : elles voient des structures significatives dans des images abstraites ou aléatoires. Une faille qui pourrait être utilisée par des pirates informatiques pour pousser une voiture sans conducteur à commettre des actes dangereux ou à truquer des systèmes de sécurité biométriques.

Des intelligences influençables

Et puis, comme Microsoft en a fait l’expérience, une intelligence artificielle peut être profondément modifiée par son environnement numérique. En envoyant le chatbot Tay sur Twitter pour qu’il s’adresse aux jeunes de 18-34 ans, celui-ci est devenu raciste et négationniste et, ce, en moins de 24 heures. ProPublica a montré comment les intelligences pouvaient être entraînées à associer des mots selon l’idéologie avec laquelle elle a été confrontée, c’est-à-dire avec les sources d’informations auxquelles elles ont eu droit.

Ce système où les machines choisissent sans expliquer ces choix ne pourra durer. Au printemps 2016, le Parlement européen passait une loi afin que toute institution se servant d’appareils usant d’intelligence artificielle pour prendre des décisions doive justifier le raisonnement de celles-ci. Ce qui causera des problèmes dans un contexte où ces systèmes semblent impénétrables. Pour que le public accepte l’intelligence artificielle dans sa vie, il doit avoir confiance et savoir qu’il est possible de rectifier le tir quand elle dérape ou interprète mal une situation.

Resimplifier l’intelligence artificielle

Heureusement, certains chercheurs tentent de rendre plus lisibles les programmes d’intelligence artificielle afin de déceler les erreurs de jugement. D’autres travaillent à ce que celles-ci puissent justement expliquer le cheminement qui a mené à ce raisonnement. Et puis, certains proposent de créer une I.A. hybride. Sans revenir à celle dite symbolique qui faisait des réflexions beaucoup plus (voire trop) simples, peut-être faudrait-il reprendre quelques éléments afin d’avoir un accès plus simplifié à comment la machine « pense ». De plus, cela permettrait même aux intelligences artificielles de comprendre davantage les concepts plus abstraits.

Nous ne sommes pas encore en mesure d’ouvrir les boîtes noires de l’intelligence artificielle. Pour l'instant, celles-ci se résument à des algorithmes qui n’ont pas un impact majeur sur nos vies. Or, au fur et à mesure qu’elle prendra de l’importance, il faudra s’assurer que les machines comprennent nos subtilités d’humain et que leurs développeurs soient en mesure de déceler les erreurs de raisonnement.

Illustration : thisisbossi via Foter.com / CC BY-NC-SA

Références

Castelvecchi, Davide. "Can We Open the Black Box of AI?" Nature News. Dernière mise à jour : 5 octobre 2016. http://www.nature.com/news/can-we-open-the-black-box-of-ai-1.20731.

Daubechies, Ingrid. "Machine Learning Works Great—Mathematicians Just Don’t Know Why." WIRED. Dernière mise à jour : 12 décembre 2015. https://www.wired.com/2015/12/machine-learning-works-greatmathematicians-just-dont-know-why/.

Guillaud, Hubert. "L’intelligence Artificielle Va-t-elle Rester Impénétrable?" InternetActu.net. Dernière mise à jour : 9 septembre 2016. http://www.internetactu.net/a-lire-ailleurs/lintelligence-artificielle-va-t-elle-rester-impenetrable/.

Hemsoth, Nicole. "The Black Box Problem Closes in on Neural Networks." The Next Platform. Dernière mise à jour : 7 septembre 2015. https://www.nextplatform.com/2015/09/07/the-black-box-problem-closes-in-on-neural-networks/.

Larson, Jeff, Julia Angwin, and Terry Pravis Jr. "Breaking the Black Box: How Machines Learn to Be Racist." ProPublica. Dernière mise à jour : 19 octobre 2016. https://www.propublica.org/article/breaking-the-black-box-how-machines-learn-to-be-racist?word=Trump.

Sussan, Rémi. "Intelligence Artificielle : Comment Sortir De L’opacité?" InternetActu.net. Dernière mise à jour : 18 octobre 2016. http://www.internetactu.net/2016/10/18/intelligence-artificielle-comment-sortir-de-lopacite/.

Thompson, Clive. "Sure, A.I. Is Powerful—But Can We Make It Accountable?" WIRED. Dernière mise à jour : 27 octobre 2016. https://www.wired.com/2016/10/understanding-artificial-intelligence-decisions/.

Tual, Morgane. "A Peine Lancée, Une Intelligence Artificielle De Microsoft Dérape Sur Twitter." Le Monde.fr. Dernière mise à jour : 24 mars 2016. http://www.lemonde.fr/pixels/article/2016/03/24/a-peine-lancee-une-intelligence-artificielle-de-microsoft-derape-sur-twitter_4889661_4408996.html.

Poster un commentaire

Commentaires

0 commentaire