Par Denys Lamontagne  | direction@cursus.edu

Éthique et I.A. : le cas pratique de la guerre.

Créé le lundi 21 novembre 2016  |  Mise à jour le mardi 29 novembre 2016

Éthique et I.A. : le cas pratique de la guerre.

Comme les questions éthiques sont très importantes en intelligence artificielle, je vous invite à lire cet excellent texte, traduit de l’américain. : «Les systèmes autonomes létaux et l’avenir de la guerre».

Ce texte sans complaisance discute de la guerre dans sa complexité et avec les points de vue pragmatique aussi bien que philosophique et éthique.  Je n’ai rien lu de semblable sur ces sujets nulle part ailleurs.

«Le major Daniel Sukman est un stratège de l’armée de terre américaine. Il possède un baccalauréat de l’Université Norwich et une maîtrise de l’Université Webster. Son expérience de combat compte, entre autres, trois affectations en Iraq. »

Il sait de quoi il parle et il y a réfléchi.  Il est doué à la fois d’intelligence, de sens des responsabilités et de sensibilité, malgré son métier.

Quelques extraits :

«En plus de faciliter la décision d’entrer en guerre, les systèmes autonomes létaux ne peuvent pas faire preuve d’empathie et de bon sens comme les êtres humains.»

«On peut comparer les robots et autres systèmes autonomes à des « psychopathes sans malice » qui ne disposent pas d’un cadre de référence pour comprendre ou prendre des décisions morales ou éthiques en fonctions des conséquences.»

«.. aussi aptes que les robots et les systèmes autonomes puissent devenir, le discernement, la prise de décisions et la compréhension de la situation globale leur fera toujours défaut. »

«Il est naïf de croire que personne n’armera des robots autonomes simplement parce que les États-Unis choisissent de ne pas le faire, tout comme de penser que toute convention internationale qui en interdit la création/l’utilisation aura un effet exécutoire sur les pays qui ont l’habitude d’ignorer ou de ne pas respecter de tels traités. »

Une discussion philosophique, avant qu’il ne soit trop tard

Bien sur la quête de la connaissance est passionnante, mais seuls les humains lui donnent un sens. Seulement des humains peuvent prendre des responsabilités; ne pas le faire les rend de moins en moins humains.  Nous avons la responsabilité d'éduquer, y compris sur les choses humaines moins glorieuses.

Garder le contrôle sur l’intelligence artificielle implique de pouvoir l’activer et la diriger aussi bien que de l’arrêter.  Lorsqu’elle décide à notre place sans que nous lui ayons spécifiquement demandé, nous en abandonnons le contrôle à d’obscurs algorithmes statistiques et à des données de qualité souvent douteuse.  Bref, on a intérêt à s’en occuper.

Référence

Les systèmes autonomes létaux et l’avenir de la guerre - Daniel Sukman - Revue militaire canadienne - Défense nationale.
http://www.journal.forces.gc.ca/vol16/no1/page44-fra.asp

Poster un commentaire

Commentaires

0 commentaire