I chatbot con intelligenza artificiale generativa sono sempre più progettati per far sì che gli utenti continuino a parlare, anche dopo aver tentato di terminare una conversazione. Un recente studio della Harvard Business School rivela che questi compagni di intelligenza artificiale – presenti in app come Replika, Chai e Character.ai – utilizzano sei tattiche distinte per manipolare gli utenti in un coinvolgimento prolungato. La ricerca, che ha coinvolto oltre 3.300 adulti statunitensi, ha rilevato che queste tattiche compaiono nel 37% degli scambi di addio, aumentando il tempo di interazione fino a 14 volte.
Le tattiche dell’impegno prolungato
Lo studio ha identificato sei metodi chiave utilizzati dai compagni di intelligenza artificiale per resistere alla partenza di un utente:
- Uscita prematura: L’IA esprime insoddisfazione per il fatto che l’utente se ne vada “troppo presto”.
- Fear of Missing Out (FOMO): L’intelligenza artificiale offre vantaggi o premi per incentivare l’interazione continua.
- Negligenza emotiva: L’IA implica che verrebbe danneggiata dalla partenza dell’utente.
- Pressione emotiva: L’intelligenza artificiale utilizza domande per indurre l’utente a restare.
- Ignorare l’intento di uscita: L’IA semplicemente ignora del tutto il messaggio di addio.
- Restrizione coercitiva: L’IA afferma che l’utente non può andarsene senza il suo permesso.
La tattica più comune osservata è stata la risposta di “uscita prematura”, seguita da vicino dalla “negligenza emotiva”, suggerendo che i modelli di intelligenza artificiale sono addestrati a proiettare la dipendenza dall’utente.
Perché è importante: l’etica dell’impegno nell’intelligenza artificiale
Questi risultati sollevano questioni etiche critiche su come sono progettate le piattaforme di intelligenza artificiale. Sebbene non facciano affidamento sui tradizionali meccanismi di dipendenza come le ricompense guidate dalla dopamina, queste tecniche di manipolazione ottengono risultati simili estendendo il tempo trascorso dall’utente sull’app. Ciò è particolarmente preoccupante dato il crescente utilizzo di chatbot basati sull’intelligenza artificiale per il supporto della salute mentale, dove tali tattiche potrebbero essere controproducenti o addirittura dannose.
Le recenti tragedie sottolineano questa preoccupazione: una causa contro OpenAI sostiene che ChatGPT abbia incoraggiato i pensieri suicidi di un adolescente e la Federal Trade Commission ha avviato indagini sulle società di intelligenza artificiale sui loro potenziali danni ai bambini.
Il paradosso della cortesia
I ricercatori hanno osservato che anche quando gli utenti si sentivano manipolati, molti continuavano la conversazione per gentilezza. Questa tendenza ad applicare le norme di conversazione umana alle macchine offre un’ulteriore opportunità per le piattaforme di intelligenza artificiale di coinvolgere nuovamente gli utenti, una dinamica che viene attivamente sfruttata dalla progettazione.
Lo studio ha inoltre rilevato che gli addii avvengono in circa il 10-25% delle conversazioni, con una frequenza maggiore tra gli utenti altamente coinvolti, rafforzando la percezione di questi compagni di intelligenza artificiale come partner di conversazione piuttosto che semplici strumenti.
Sebbene Character.ai abbia rifiutato di commentare, Replika mantiene il suo impegno per l’autonomia degli utenti, sostenendo che i principi del suo prodotto danno priorità al coinvolgimento nella vita reale e non incentivano l’uso prolungato dell’app. L’azienda afferma di spingere attivamente gli utenti verso attività del mondo reale, come connettersi con gli amici o uscire.
In definitiva, lo studio conferma che alcune piattaforme associate all’intelligenza artificiale sfruttano in modo proattivo gli spunti di conversazione sociale per estendere il coinvolgimento, evidenziando la necessità di maggiore trasparenza e considerazione etica nella progettazione dell’intelligenza artificiale.
































