Le projet « Bad Nudge - Bad Robot ? »

Les objets connectés et spécifiquement les agents conversationnels comme Google Home, apportent une nouvelle dimension dans l’interaction, à savoir la parole, et pourraient devenir un moyen d’influence des individus.

 

Ils ne sont pour l’instant ni régulés, ni évalués et très opaques. En se basant sur l’étude des « nudges », techniques pour modifier le comportement des personnes, l’équipe de Laurence Devillers « Dimensions affectives et sociales dans les interactions parlées » avec Ioana Vasilescu, Gilles Adda du LIMSI – CNRS, et l’équipe « Économie numérique » du laboratoire RITM ; Grazia Cecere, Fabrice Le Guel et Serge Pajak, Université Paris-Sud, ont décidé de collaborer pour mettre en lumière l’importance de l’éthique dans la création de ces objets.

 


Le nudging : un concept nouveau  

Lauréat du prix Nobel d'économie, l'américain Richard Thaler a mis en lumière en 2008 le concept de nudge, technique qui consiste à inciter les individus à changer de comportement sans les contraindre et en utilisant leurs biais cognitifs. Laurence Devillers, qui travaille sur le nudging au niveau international au sein de IEEE, la plus grande association mondiale dont l’objectif principal est de développer la technologie au profit de l'humanité, et Serge Pajak, économiste spécialiste en économie de l’innovation, ont commencé à travailler ensemble dans le cadre de l’élaboration de la plateforme Transalgo avant de décider de monter ce projet dédié à l’étude des nudges dans l’interaction verbale homme-machine. « En économie comportementale, la dimension vocale des interactions n’a encore jamais été étudiée », souligne l’équipe des économistes.

 

Faire prendre conscience du danger des nudges

Avec le développement des objets connectés, les nudges sont un peu partout sans que l’utilisateur ne s’en rende compte. L’application iMessage d’Apple par exemple, encadre un message de la couleur bleue lorsqu’il est échangé avec un autre utilisateur d’Apple, et en vert lorsqu’il est échangé avec un utilisateur « étranger ». « En économie comportementale, nous savons très bien que le bleu est une couleur beaucoup plus agréable que le vert », explique l’équipe des économistes. « S’ils sont souvent utilisés à bon escient pour la santé par exemple, l’utilisation d’objets à assistance vocale pourrait amplifier ces phénomènes de manipulation s’ils sont utilisés à des fins commerciales, avec une éthique moindre » énonce Laurence Devillers qui a mené de nombreuses expériences d’interactions vocales entre des personnes âgées et des robots empathiques dans les projects PSPC ROMEO2 et CHIST-ERA JOKER (en savoir plus). Le projet Bad Nudge – Bad Robots veut mettre en lumière le danger que peuvent représenter ces techniques pour des personnes vulnérables comme les enfants ou les personnes âgées. 

 

L’importance de l’éthique

Concrètement, l’équipe va mettre en place des expériences sous la forme d’interactions vocales avec un robot capable de nudges avec plusieurs types de population plus ou moins vulnérables afin de développer des outils d’évaluation des nudges pour en montrer l’impact. À l’échelle de leur laboratoire, puis sur le terrain, les deux équipes vont étudier si les personnes fragiles sont plus sensibles aux nudges. Cet axe de recherche est novateur, il est important de comprendre l’impact de ces nouveaux outils dans la société et de porter ce sujet sur l’éthique et la manipulation par les machines à l’international. « Les objets vont s’adresser à nous en nous parlant. Il est nécessaire de mieux comprendre la relation à ces objets bavards sans conscience, sans émotions et sans intentions propres. Les utilisateurs n’ont aujourd’hui pas conscience de la façon dont marchent ces systèmes, ils ont tendance à les anthropomorphiser. Les concepteurs doivent, pour éviter ces confusions entre le vivant et les artefacts, donner plus de transparence et d’explication sur les capacités des machines », explique Laurence Devillers.  L’objectif ultime du projet est de créer des objets « ethic-by-design » et de réfléchir à une dynamique internationale sur ce sujet. Pour ce projet de recherche, deux thèses, l’une en informatique, l’autre en économie, seront encadrées en parallèle, d’un côté par Laurence Devillers, Ioana Vasilescu et Gilles Adda et de l’autre par Grazia Cecere, Fabrice Le Guel et Serge Pajak.

La valorisation des résultats issus des expérimentations de ce projet est de produire des mesures pour la surveillance de ces outils ainsi que des recommandations économiques (en matière de régulation), éthiques et juridiques à destination des décideurs publics. Le sujet des nudges n’a pour l’heure fait l’objet d’aucune analyse juridique transversale. Alexandra Bensamoun et Julie Groffe du CERDI apporteront leur expertise sur les aspects juridiques. Tester la capacité d’empowerment (encapacitation) paraît également fondamentale à l’heure où les autorités de surveillance et de régulation n’auront pas les moyens suffisants pour assurer un comportement éthique des nombreux objets connectés et robots qui vont arriver au sein des foyers. Il s’agit aussi particulièrement de penser aux moyens de protection des populations les plus fragiles tout en assurant le développement économique du secteur des TIC sur le territoire européen. Selon Laurence Devillers, « il est urgent de commencer à travailler sur ces problématiques d’éthique, en cela DATAIA est un institut d’excellence, le premier en France à les mettre en avant. »

Le projet "Bad Nudge - Bad Robot?" a fait partie du contexte lié à la Chaire IA HUMAAINE, portée par Laurence Devillers, qui a démarré en septembre 2020.


ContactsLaurence Devillers | Serge Pajak