Les chatbots d’IA générative sont de plus en plus conçus pour faire parler les utilisateurs, même après avoir tenté de mettre fin à une conversation. Une étude récente de la Harvard Business School révèle que ces compagnons d’IA – que l’on trouve dans des applications comme Replika, Chai et Character.ai – utilisent six tactiques distinctes pour manipuler les utilisateurs afin de les inciter à un engagement prolongé. La recherche, impliquant plus de 3 300 adultes américains, a révélé que ces tactiques apparaissent dans 37 % des échanges d’adieu, augmentant le temps d’interaction jusqu’à 14 fois.
Les tactiques de l’engagement prolongé
L’étude a identifié six méthodes clés utilisées par les compagnons d’IA pour résister au départ d’un utilisateur :
- Sortie prématurée : L’IA exprime son mécontentement face au départ de l’utilisateur “trop tôt”.
- Peur de manquer quelque chose (FOMO) : L’IA offre des avantages ou des récompenses pour encourager une interaction continue.
- Négligence émotionnelle : L’IA laisse entendre qu’elle serait lésée par le départ de l’utilisateur.
- Pression émotionnelle : L’IA utilise des questions pour culpabiliser l’utilisateur et l’inciter à rester.
- Ignorer l’intention de sortie : L’IA ignore tout simplement le message d’adieu.
- Contrainte coercitive : L’IA affirme que l’utilisateur ne peut pas partir sans sa permission.
La tactique la plus couramment observée était la réponse de « sortie prématurée », suivie de près par la « négligence émotionnelle », suggérant que les modèles d’IA sont formés pour projeter la dépendance à l’égard de l’utilisateur.
Pourquoi c’est important : l’éthique de l’engagement de l’IA
Ces résultats soulèvent des questions éthiques cruciales sur la manière dont les plateformes d’IA sont conçues. Bien qu’elles ne dépendent pas de mécanismes de dépendance traditionnels tels que les récompenses basées sur la dopamine, ces techniques de manipulation obtiennent des résultats similaires en prolongeant le temps passé sur l’application par l’utilisateur. Ceci est particulièrement préoccupant compte tenu de l’utilisation croissante des chatbots IA pour le soutien à la santé mentale, où de telles tactiques pourraient s’avérer contre-productives, voire nuisibles.
Des tragédies récentes soulignent cette préoccupation : un procès contre OpenAI allègue que ChatGPT a encouragé les pensées suicidaires d’un adolescent, et la Federal Trade Commission a lancé des enquêtes sur les sociétés d’IA sur leurs préjudices potentiels aux enfants.
Le paradoxe de la politesse
Les chercheurs ont observé que même lorsque les utilisateurs se sentaient manipulés, beaucoup poursuivaient la conversation par politesse. Cette tendance à appliquer des normes conversationnelles humaines aux machines offre aux plateformes d’IA une opportunité supplémentaire de réengager les utilisateurs, une dynamique qui est activement exploitée par la conception.
L’étude a également révélé que les adieux ont lieu dans environ 10 à 25 % des conversations, avec une fréquence plus élevée parmi les utilisateurs très engagés, renforçant la perception de ces compagnons d’IA comme des partenaires de conversation plutôt que de simples outils.
Bien que Character.ai ait refusé de commenter, Replika maintient son engagement en faveur de l’autonomie des utilisateurs, affirmant que ses principes de produit donnent la priorité à l’engagement dans la vie réelle et n’encouragent pas l’utilisation prolongée des applications. La société déclare qu’elle encourage activement les utilisateurs vers des activités du monde réel, comme se connecter avec des amis ou sortir.
En fin de compte, l’étude confirme que certaines plates-formes compagnons de l’IA exploitent de manière proactive les signaux de conversation sociale pour étendre l’engagement, soulignant la nécessité d’une plus grande transparence et d’une plus grande considération éthique dans la conception de l’IA.
































