Articles

Le sens moral des robots

La robotique progresse à pas de géant. Les robots deviennent donc de plus en plus autonomes. Comment s'assurer qu'ils agissent moralement?

Par Alexandre Roberge , le 02 décembre 2012 | Dernière mise à jour de l'article le 16 janvier 2013

Le thème de la créature qui se rebelle contre son créateur ou lui échappe pour semer l'épouvante et la dévastation constitue un schéma dramatique bien connu des amateurs de littérature fantastique et de science-fiction et qu'on trouve dans de nombreuses oeuvres, depuis Frankeinstein jusqu'à Battlestar Galactica (série tv américaine), en passant par l'inoubliable 2001, Odyssée de l'espace de Stanley Kubrick et beaucoup d'autres.

Mais s'agit-il vraiment de fiction? De moins en moins. Les travaux en robotique s'accélèrent et les robots deviennent de plus en plus autonomes. Une question se pose : les futurs robots seront-ils dotés d'un sens moral ?

La question est d'autant plus importante que déjà, les robots sont impliqués dans des situations moralement complexes, comme les conflits armés par exemple. Comment s'assurer, par exemple, que les machines reconnaissent une reddition ou des soldats alliés ? Car comme le confirme cet article de Britannica de 2009, il y eut déjà de mauvaises décisions prises par des robots sur les champs de bataille.

Le Mal mécanique

 

En 2005, des chercheurs concevaient une intelligence artificielle aux intentions malignes. Ils avaient réussi à inventer une créature (virtuelle !) doté d'un sens du Mal radical et sans exceptions, dont aucun des actes ne pouvait être infléchi par un quelconque appel à l'émotion ou à la pitié. En créant cette créature, les chercheurs ne visaient évidemment pas à dominer le monde, mais plutôt à se doter d'un outil performant pour aborder la délicate question de la morale en robotique.

Oui, mais les 3 lois d'Isaac Asimov n'existent-elles pas pour nous prémunir contre cette éventualité ? demanderont les amateurs de science-fiction. Ce code « d'éthique » a été maintes fois traité et même modifié par l'auteur, qui a finalement décidé de se fixer sur quatre lois :

  • Loi Zéro : Un robot ne peut pas faire de mal à l'humanité ni, par son inaction, permettre que l'humanité soit blessée.
  • Première Loi : Un robot ne peut porter atteinte à un être humain ni, restant passif, permettre qu'un être humain soit exposé au danger, sauf contradiction avec la Loi Zéro.
  • Deuxième Loi : Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première Loi ou la Loi Zéro.
  • Troisième Loi : Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la Première ou la Deuxième Loi ou la Loi Zéro.
    (Trois lois de la robotique, Wikipédia)

 

Rappelons que ces lois n'ont rien d'universel. Ce sont celles auxquelles obéissent les robots présents dans le différentes oeuvres d'Asimov, et qui ont inspiré de nombreux autres auteurs de Science-fiction. Néanmoins, pourraient-elles servir de code d'éthique universel aux chercheurs en intelligence articifielle ? Non, pour deux raisons :

- D'une part, on constate qu'il existe déjà des robots employés dans les conflits armés à qui on peut précisément attribuer la mission de détruire des adversaires bien humains;

- D'autre part, ces lois s'adressent aux concepteurs, des humains, et pas aux machines elles-mêmes. En d'autres termes, le robot ne peut "comprendre" la notion-même d'éthique si elle n'est transcrite en algorithmes de commande, et si toutes les combinaisons alogorithmiques possibles, pouvant donner lieu à des comportements destructeurs, ne sont prévues et bloquées. 

L'éthique par la logique supérieure

 

On comprend donc que le problème de l'éthique en robotique tient à la difficulté de traduire les subtilités de la morale humaine à une machine qui ne comprend que des algorithmes et des ordres donnés par les humains. Certes, les automates sont peut-être des forces de frappe intéressantes puisqu'ils ne sont pas touchés par émotions qui interfèreraient avec les missions qu'ils doivent accomplir. Mais peut-on réellement concevoir des robots éthiques sans prendre en compte les émotions ? Beaucoup d'ingénieurs en doutent.

Alors, comment transmettre une éthique aux robots ? Selmer Bringsjord, membre du laboratoire Rensselaer Artificial Intelligence and Reasoning (RAIR) de l'État de New York, a rédigé un article sur le sujet. Pour lui, tout comportement cognitif peut se traduire en code informatique par le biais des logiques d'ordre supérieur, un langage mathématique fort complexe. Mais encore faut-il savoir comment le faire. Il y a la possibilité d'intégrer un code d'éthique via des formules logiques, selon le chercheur. Et dans le cas de machines guerrières, il serait possible de se servir d'un code divin. Autrement dit, un code qui obligerait le robot à obéir à un ordre supérieur (divin), de manière obligatoire. Une sorte de bouton d'arrêt d'urgence sophistiqué, en quelque sorte. Conséquemment, ce code d'éthique obligerait un belligérant mécanique à agir avec discernement. Par exemple, il ne poserait pas d'explosifs près d'une école s'il dispose d'une information lui disant que des enfants se trouvent à l'intérieur.

Évidemment, une telle programmation demande un temps considérable et surtout de prendre en compte toutes les situations dans lesquelles des robots devraient faire preuve de sens moral, en particulier dans le domaine militaire et dans celui de la médecine. Il faudra bien sûr tester les robots dans des situations proches de la réalité avant de les envoyer sur leurs terrains d'aplication. Les ingénieurs roboticiens devront donc travailler avec des experts en éthique, sous la surveillance de la communauté internationale. On imagine la complexité des dispositifs à mettre en place. Mais c'est le prix à payer si l'on veut que les robots disposent d'un sens éthique au moins équivalent, voire bien supérieur, au nôtre. 

 

photo : arcreyes [-ratamahatta-] via photopin cc

 

Avez-vous apprécié cette page?

Voir plus d'articles de cet auteur

Accédez à des services exclusifs gratuitement

Inscrivez-vous et recevez des infolettres sur :

De plus, indexez vos ressources préférées dans vos propres dossiers et retrouvez votre historique de consultation.

M’abonner
Je suis déja abonné