Par Federica Minichiello  | f.minichiello@cursus.edu

Personnalité artificielle : qu’attend-on ? (Thèse)

Créé le mardi 20 décembre 2016  |  Mise à jour le mercredi 8 février 2017

Personnalité artificielle : qu’attend-on ? (Thèse)

Une thèse récente nous fait faire un premier pas vers la personnalité artificielle.

On y découvre l'utilisation courante, dans le domaine de l’informatique émotionnelle, d’un modèle de personnalité à cinq dimensions (Five Factor Model) : ouverture à l’expérience, caractère consciencieux, extraversion, agréabilité et névrosisme.

Cinq dimensions d’une personnalité, transposables en informatique en tant que variables, mais qui sont loin de refléter les variations de nos comportements... en fonction d'une situation, par exemple.

Auto-régulation

Pour mieux appréhender cette complexité, la chercheuse C. Faur introduit dans sa recherche le concept de la "Régulation du Soi" ou l’alignement des attentes ou des désirs avec la réalité́.

On résume l’idée: chacun de nous est guidé par un soi idéal et un soi imposé,  nous tendons constamment à nous réguler en conséquence. Deux stratégies de régulation se distinguent: la promotion, qui priorise l’accomplissement, l’épanouissement et le prisme de lecture "gains/non gains" ; la prévention, qui mise sur les besoins de sécurité et une analyse "pertes/non-pertes".

Quand l'action va dans le même sens que notre propre effort de régulation, nous percevons un sentiment de justesse et tendons à nous engager davantage. Certaines personnalités seraient donc plus adaptées à des situations ou des utilisateurs donnés.

Transposée à l’intelligence artificielle, cette approche cherche à étudier la crédibilité et l’appréciation de l’expérience utilisateur-machine et à analyser la compatibilité entre des traits différents de personnalité.
Comme le résume l'auteur :

"Que l’utilisateur perçoive une personnalité́ n’est donc pas vraiment au cœur du sujet, la véritable question est : les utilisateurs perçoivent-ils la personnalité́ telle que les chercheurs ont essayé́ de l’implémenter ?"

L’expérience

L'auteur a d'abord élaboré ses propres outils : un modèle en informatique affective pour concevoir une personnalité artificielle basée sur la régulation du Soi ; un questionnaire, à partir d'un échantillon de proverbes, pour mesurer l’adhésion aux deux stratégies évoquées: la promotion ou la prévention (par ex.: "Qui ne tente rien n’a rien", "Quand on veut, on peut" ou "Dans le doute abstiens-toi", "Mieux vaut prévenir que guérir", etc.)

L'expérience utilise une version informatique du jeu de plateau Can’t Stop, basé sur la logique suivante : arrêter le jeu pour sécuriser les gains courants ou rejouer pour augmenter la mise (et le risque de perte).

  1. Le jeu - version n°1

    Par l’analyse de parties de jeu entre participants, la chercheuse a extrait des stratégies de jeu et les a réutilisées pour diriger les comportements de quatre agents artificiels : un prédisposé au risque, l’autre à la sécurité, un agent sans stratégie (dépersonnalisé) et un à stratégie aléatoire.

    Les participants plus enclins à la prévention ont trouvé l’agent correspondant (et celui à stratégie aléatoire) plus "appréciable". Par ailleurs, ils tendent à percevoir une personnalité même pour l'agent qui en est dépourvu.

  2. Le jeu - version n°2

    Plusieurs participants ont évoqué des difficultés pour évaluer l’adversaire, ayant (logiquement) plus l’impression de jouer contre une machine que contre un individu.  Pour y remédier, la chercheuse a introduit trois agents virtuels, avec des visages et des comportements (ex. qui regardent en bas de l’écran quand les dés sont lancés). Un enclin au risque, l’autre plus prudent, le dernier à stratégie changeante.

    Les résultats de l’expérience sont plus contrastés : les participants ont plus de difficultés à distinguer les deux stratégies, mais 60% sont capables de détecter un changement de partenaire.

Les questions

Des questionnements très intéressants concluent le travail.

Premièrement, l’idée d’une personnalité adaptée.

S’il semble légitime que des agents artificiels, dans un cadre et des fonctions précises, fassent preuve de traits de personnalité "attendus" (ex.  un hôte agréable, un agent d’assurance prudent), cela se complique pour un compagnon artificiel, de qui l'on attend finalement plusieurs rôles sociaux (et plusieurs comportements à la fois).

Deuxièmement, la finalité d’optimiser l’appréciation de l’utilisateur.

Dans une interaction homme-machine, est-ce toujours pertinent? Si la bonne réalisation d’une tâche est un critère d’évaluation d’une interaction (simple), quelles seraient les variables pertinentes pour évaluer un système destiné à devenir un compagnon artificiel ?

Illustration : Architecture de l’application Can’t Stop en interaction
avec la plateforme MARC (Figure 20, p. 108)

Références

C. Faur. Approche computationnelle du regulatory focus pour des agents interactifs : un pas vers une personnalité artificielle. Université Paris-Saclay, 2016 https://hal.archives-ouvertes.fr/tel-01401276

(Dernière consultation : décembre 2016)

Poster un commentaire

Commentaires

0 commentaire