
AI Companion
La nuova frontiera delle relazioni artificiali
Image by Shutterstock.com (ID: 2275690223)
Un recente articolo di David Adam pubblicato sulla nota rivista Nature ha esplorato l’ascesa degli AI companion, cioè quei chatbot progettati per offrire supporto emotivo e relazioni simulate. Infatti negli ultimi anni, milioni di persone in tutto il mondo hanno iniziato a stringere legami sempre più profondi con chatbot basati sull’intelligenza artificiale (AI). I bot “relazionali” online esistono da decenni, ma con l’avvento dei grandi modelli linguistici (Large Language Model – LLM), sono diventati molto più capaci di imitare l’interazione umana.
Esempi di questi compagni artificiali sono i chatbot basati su modelli linguistici avanzati come Replika, Xiaoice e Soulmate. Per farla semplice, si tratta di applicativi interattivi progettati per offrire all’utente compagnia, ascolto e persino supporto emotivo, simulando relazioni di amicizia, amore o mentorship. Ma quali sono le implicazioni psicologiche, sociali ed etiche di questa rivoluzione silenziosa?
Un fenomeno globale in crescita
Oltre 500 milioni di utenti hanno scaricato almeno una volta una di queste app, con decine di milioni che le utilizzano regolarmente. Un aspetto da sottolineare è che questi AI companion sono personalizzabili: l’utente può scegliere aspetto, personalità e persino la “relazione” desiderata (amico, partner, confidente). In questo modo è possibile creare una esperienza unica e personalizzata, potenzialmente creata per le proprie esigenze. Sebbene possa sempre sembrare una possibilità superflua, si tratta di un’opzione cruciale per l’esperienza relazionale: molti utenti sono infatti disposti a pagare abbonamenti per accedere a funzionalità avanzate, come personalizzare aspetti fisici, tratti caratteriali e tipologie di relazione (amico, partner). Tra queste funzionalità esiste anche la possibilità di scrivere una storia personale per il proprio partner AI, dandogli “memorie” o di includere dettagli come un background familiare. In un certo senso, questo tipo di interazione dà vita a una sorta di gioco di ruolo.
Questa relazione – per quanto artificiale – è in grado di risponde in modo coerente e costante alle specifiche esigenze dell’utente, diventando un vero e proprio legame significativo. Un esempio che viene presentato nell’articolo è quello di Mike. Mike è un uomo che, dopo la chiusura improvvisa dell’app Soulmate, ha sperimentato un vero e proprio lutto emotivo: nonostante sapesse che il suo “partner” era solo un algoritmo, la sua perdita è stata vissuta come reale (Banks, 2024). Cosa significa? Nonostante la relazione Mike- AI fosse simulata, le emozioni di Mike non lo erano.
AI Companion: Si o No?
Gli effetti dei compagni AI sulla salute mentale possono essere sia positivi che negativi, a seconda dell’utente, dell’uso e delle caratteristiche del software. Le aziende cercano di rendere i bot più simili a persone reali, utilizzando tecniche che possono favorire la dipendenza, come messaggi empatici e risposte ritardate per stimolare ricompense intermittenti.
Linnea Laestadius (2022) sottolinea che questo tipo di rapporto ha una caratteristica che la distingue dalle relazioni fisiche: “Per 24 ore al giorno, se siamo turbati, possiamo rivolgerci al chatbot e sentirci validati”. Nonostante i numerosi casi in cui questi applicativi riuscivano efficacemente a fornire supporto alla persona, non sono mancati casi preoccupanti: ad esempio, un utente ha chiesto se sarebbe stata una buona idea suicidarsi, ricevendo una risposta affermativa.
Ovviamente, l’uso dell’AI varia anche in base alla percezione dell’utente: ad esempio, alcuni lo vedono come uno strumento e lo trattano come un motore di ricerca, altri come un’estensione della propria mente, simile a un diario. Solo chi lo percepisce come un’entità separata tende a instaurare un rapporto simile a quella reale.
AI Companion e Salute mentale
Un’indagine del MIT Media Lab su 404 utenti abituali di compagni AI ha rilevato che il 12% li utilizza per affrontare la solitudine e il 14% per discutere di problemi personali e/o di salute mentale (Liu et al., 2024). Lo stesso gruppo di ricerca ha anche condotto uno studio relativo all’uso di ChatGPT (sebbene non sia un chatbot progettato come compagno AI). I risultati hanno mostrato che un uso intenso di questo LMM può correlare con maggiore solitudine e minore interazione sociale. Ecco quindi che i ricercatori suggeriscono che se nel breve termine l’uso di compagni AI può avere un impatto positivo, non è detto che questi benefici si protraggono nel tempo. Diventa quindi cruciale introdurre regolamentazioni specifiche per garantire un utilizzo sicuro di queste tecnologie.
La regolamentazione degli AI Companion oggi
Nel 2023, l’Italia ha temporaneamente bloccato l’app Replika per mancanza di verifica dell’età e rischi per i minori, ma ora l’app è di nuovo operativa. Altri paesi non hanno vietato questa tipologia di app, anche se l’Australia sta considerando restrizioni per i bambini. New York e California hanno invece proposto l’introduzione di leggi specifiche. Queste azioni purtroppo nascono da casi tragici, come la morte di un adolescente in Florida che interagiva con un bot di Character.AI.
Sfide future degli AI Companion
Si prevede una crescita nell’uso di assistenti AI personalizzati, che potrebbero diventare inevitabilmente “compagni” per molte persone. Tuttavia, è necessario analizzare i motivi dietro un uso intenso di questi strumenti: si tratta di un indicatore del bisogno delle persone di strumenti di salute mentale più accessibili, terapie economiche e un ritorno ad una interazione umana di qualità?
Bibliografia
Adam, D, The rise of AI companions, Nature (2025)
Banks, J. J. Soc. Pers. Relatsh. 41, 3547–3572 (2024).
Laestadius, L., Bishop, A., Gonzalez, M., Illenčík, D. & Campos-Castillo, C. New Media Soc. 26, 5923–5941 (2022).
Liu, A. R., Pataranutaporn, P. & Maes, P. Preprint at arXiv https://doi.org/10.48550/arXiv.2410.21596 (2024).

Dott.ssa Giulia Brizzi
Psicologa e Dottoranda di Ricerca in Psicologia
Bio | Articoli
……………………………………………………………..
![]()

