Una tesis reciente da un primer paso hacia la personalidad artificial.
Revela la utilización actual, en el ámbito de la informática emocional, de un modelo de personalidad de cinco dimensiones(Five Factor Model): apertura a la experiencia, concienciación, extraversión, agradabilidad y neuroticismo.
Cinco dimensiones de una personalidad, que pueden transponerse a la informática como variables, pero que están lejos de reflejar las variaciones de nuestros comportamientos... en función de una situación, por ejemplo.
Autorregulación
Para comprender mejor esta complejidad, la investigadora C. Faur introduce en su investigación el concepto de "Autorregulación" oalineación de las expectativas o deseos con la realidad.
La idea se resume: cada uno de nosotros se guía por un yo ideal y un yo impuesto, tendemos constantemente a regularnos en consecuencia. Se pueden distinguir dos estrategias de regulación: la promoción, que da prioridad al logro, la realización y el prisma de lectura "ganar/no ganar"; la prevención, que se centra en las necesidades de seguridad y el análisis "perder/no perder".
Cuando la acción está en consonancia con nuestro propio esfuerzo regulador, percibimos una sensación de acierto y tendemos a comprometernos más. Por tanto, ciertas personalidades se adaptarían mejor a determinadas situaciones o usuarios.
Trasladado a la inteligencia artificial, este enfoque pretende estudiar la credibilidad y la apreciación de la experiencia usuario-máquina y analizar la compatibilidad entre distintos rasgos de personalidad.
Como resume el autor
"Por tanto, que elusuario perciba una personalitý no es realmente el quid de la cuestión, la verdadera pregunta es: ¿perciben los usuarios la personalitý tal y como los investigadores han intentadó implementarla?".
El experimento
En primer lugar, el autor desarrolló sus propias herramientas: un modelo de computación afectiva para diseñar una personalidad artificial basada en la autorregulación; un cuestionario, basado en una muestra de proverbios, para medir la adhesión a las dos estrategias mencionadas: promoción o prevención (por ejemplo, "Quien no arriesga, no gana", "En caso de duda, abstente" o "Más vale prevenir que curar", etc.).
El experimento utiliza una versión informática del juego de mesa Can't Stop, basado en la siguiente lógica: parar el juego para asegurar las ganancias actuales o volver a jugar para aumentar la apuesta (y el riesgo de pérdida).
- El juego - versión 1
Analizando las partidas entre participantes, el investigador extrajo estrategias de juego y las reutilizó para dirigir el comportamiento de cuatro agentes artificiales: uno predispuesto al riesgo, otro a la seguridad, otro sin estrategia (despersonalizado) y otro con estrategia aleatoria.
Los participantes más inclinados a la prevención encontraron más "simpático" el agente correspondiente (y el despersonalizado). Además, tendían a percibir una personalidad incluso para el agente sin ella.
- El juego - versión 2
Varios participantes mencionaron dificultades para evaluar al oponente, sintiendo (lógicamente) más que jugaban contra una máquina que contra un individuo. Para remediarlo, el investigador introdujo tres agentes virtuales, con caras y comportamientos (por ejemplo, mirar hacia abajo a la pantalla cuando se lanzan los dados). Uno es arriesgado, el otro más cauto y el último cambia de estrategia.
Los resultados del experimento fueron más dispares: los participantes tuvieron más dificultades para distinguir entre las dos estrategias, pero el 60% fue capaz de detectar un cambio de pareja.
Las preguntas
Algunas cuestiones muy interesantes concluyen el trabajo.
En primer lugar, la idea de una personalidad adaptada.
Si bien parece legítimo que los agentes artificiales, dentro de un marco y una función específicos, muestren rasgos de personalidad "esperados" (por ejemplo, un anfitrión agradable, un agente de seguros prudente), esto se complica en el caso de un compañero artificial, del que se espera, en última instancia, que desempeñe varios papeles sociales (y varios comportamientos al mismo tiempo).
En segundo lugar, el objetivo de optimizar la apreciación del usuario.
En una interacción hombre-máquina, ¿es esto siempre pertinente? Si la realización satisfactoria de una tarea es un criterio para evaluar una interacción (simple), ¿cuáles serían las variables pertinentes para evaluar un sistema destinado a convertirse en un compañero artificial?
Ilustración: Arquitectura de la aplicación Can't Stop en interacción con el MARC
con la plataforma MARC (Figura 20, p. 108)
Referencias
C. Faur. Aproximación computacional al enfoque regulador para agentes interactivos: un paso hacia una personalidad artificial. Université Paris-Saclay, 2016 https://hal.archives-ouvertes.fr/tel-01401276
(Último acceso: diciembre de 2016)
Ver más artículos de este autor