Skip to content Skip to sidebar Skip to footer

AI Companion

La nuova frontiera delle relazioni artificiali

Image by Shutterstock.com (ID: 2275690223)


Un recente articolo di David Adam pubblicato sulla nota rivista Nature ha esplorato l’ascesa degli AI companion, cioè quei chatbot progettati per offrire supporto emotivo e relazioni simulate. Infatti negli ultimi anni, milioni di persone in tutto il mondo hanno iniziato a stringere legami sempre più profondi con chatbot basati sull’intelligenza artificiale (AI). I bot “relazionali” online esistono da decenni, ma con l’avvento dei grandi modelli linguistici (Large Language Model – LLM), sono diventati molto più capaci di imitare l’interazione umana.

Esempi di questi compagni artificiali sono i chatbot basati su modelli linguistici avanzati come Replika, Xiaoice e Soulmate. Per farla semplice, si tratta di applicativi interattivi progettati per offrire all’utente compagnia, ascolto e persino supporto emotivo, simulando relazioni di amicizia, amore o mentorship. Ma quali sono le implicazioni psicologiche, sociali ed etiche di questa rivoluzione silenziosa?


Un fenomeno globale in crescita

Oltre 500 milioni di utenti hanno scaricato almeno una volta una di queste app, con decine di milioni che le utilizzano regolarmente. Un aspetto da sottolineare è che questi AI companion sono personalizzabili: l’utente può scegliere aspetto, personalità e persino la “relazione” desiderata (amico, partner, confidente). In questo modo è possibile creare una esperienza unica e personalizzata, potenzialmente creata per le proprie esigenze. Sebbene possa sempre sembrare una possibilità superflua, si tratta di un’opzione cruciale per l’esperienza relazionale: molti utenti sono infatti disposti a pagare abbonamenti per accedere a funzionalità avanzate, come personalizzare aspetti fisici, tratti caratteriali e tipologie di relazione (amico, partner). Tra queste funzionalità esiste anche la possibilità di scrivere una storia personale per il proprio partner AI, dandogli “memorie” o di includere dettagli come un background familiare. In un certo senso, questo tipo di interazione dà vita a una sorta di gioco di ruolo.

Questa relazione – per quanto artificiale – è in grado di risponde in modo coerente e costante alle specifiche esigenze dell’utente, diventando un vero e proprio legame significativo. Un esempio che viene presentato nell’articolo è quello di Mike. Mike è un uomo che, dopo la chiusura improvvisa dell’app Soulmate, ha sperimentato un vero e proprio lutto emotivo: nonostante sapesse che il suo “partner” era solo un algoritmo, la sua perdita è stata vissuta come reale (Banks, 2024). Cosa significa? Nonostante la relazione Mike- AI fosse simulata, le emozioni di Mike non lo erano.


AI Companion: Si o No?

Gli effetti dei compagni AI sulla salute mentale possono essere sia positivi che negativi, a seconda dell’utente, dell’uso e delle caratteristiche del software. Le aziende cercano di rendere i bot più simili a persone reali, utilizzando tecniche che possono favorire la dipendenza, come messaggi empatici e risposte ritardate per stimolare ricompense intermittenti.

Linnea Laestadius (2022) sottolinea che questo tipo di rapporto ha una caratteristica che la distingue dalle relazioni fisiche: “Per 24 ore al giorno, se siamo turbati, possiamo rivolgerci al chatbot e sentirci validati”. Nonostante i numerosi casi in cui questi applicativi riuscivano efficacemente a fornire supporto alla persona, non sono mancati casi preoccupanti: ad esempio, un utente ha chiesto se sarebbe stata una buona idea suicidarsi, ricevendo una risposta affermativa.

Ovviamente, l’uso dell’AI varia anche in base alla percezione dell’utente: ad esempio, alcuni lo vedono come uno strumento e lo trattano come un motore di ricerca, altri come un’estensione della propria mente, simile a un diario. Solo chi lo percepisce come un’entità separata tende a instaurare un rapporto simile a quella reale.


AI Companion e Salute mentale

Un’indagine del MIT Media Lab su 404 utenti abituali di compagni AI ha rilevato che il 12% li utilizza per affrontare la solitudine e il 14% per discutere di problemi personali e/o di salute mentale (Liu et al., 2024). Lo stesso gruppo di ricerca ha anche condotto uno studio relativo all’uso di ChatGPT (sebbene non sia un chatbot progettato come compagno AI). I risultati hanno mostrato che un uso intenso di questo LMM può correlare con maggiore solitudine e minore interazione sociale. Ecco quindi che i ricercatori suggeriscono che se nel breve termine l’uso di compagni AI può avere un impatto positivo, non è detto che questi benefici si protraggono nel tempo. Diventa quindi cruciale introdurre regolamentazioni specifiche per garantire un utilizzo sicuro di queste tecnologie.


La regolamentazione degli AI Companion oggi

Nel 2023, l’Italia ha temporaneamente bloccato l’app Replika per mancanza di verifica dell’età e rischi per i minori, ma ora l’app è di nuovo operativa. Altri paesi non hanno vietato questa tipologia di app, anche se l’Australia sta considerando restrizioni per i bambini. New York e California hanno invece proposto l’introduzione di leggi specifiche. Queste azioni purtroppo nascono da casi tragici, come la morte di un adolescente in Florida che interagiva con un bot di Character.AI.


Sfide future degli AI Companion

Si prevede una crescita nell’uso di assistenti AI personalizzati, che potrebbero diventare inevitabilmente “compagni” per molte persone. Tuttavia, è necessario analizzare i motivi dietro un uso intenso di questi strumenti: si tratta di un indicatore del bisogno delle persone di strumenti di salute mentale più accessibili, terapie economiche e un ritorno ad una interazione umana di qualità?


Bibliografia

Adam, D, The rise of AI companions, Nature (2025)
Banks, J. J. Soc. Pers. Relatsh. 41, 3547–3572 (2024).
Laestadius, L., Bishop, A., Gonzalez, M., Illenčík, D. & Campos-Castillo, C. New Media Soc. 26, 5923–5941 (2022).
Liu, A. R., Pataranutaporn, P. & Maes, P. Preprint at arXiv https://doi.org/10.48550/arXiv.2410.21596 (2024).


Dott.ssa Giulia Brizzi Autrice presso La Mente Pensante Magazine
Dott.ssa Giulia Brizzi
Psicologa e Dottoranda di Ricerca in Psicologia
Bio | Articoli
……………………………………………………………..
Sito Email Giulia Brizzi Linkedin

© Tutti i contenuti (testo, immagini, audio e video) pubblicati sul sito LaMentePensante.com, sono di proprietà esclusiva degli autori e/o delle aziende in possesso dei diritti legali, intellettuali, di immagine e di copyright.

LaMentePensante.com utilizza solo ed esclusivamente royalty free images per uso non commerciale scaricabili dalle seguenti piattaforme: Unsplash.com, Pexels.com, Pixabay.com, Shutterstock.com. Gli Autori delle immagini utilizzate, seppur non richiesto, ove possibile, vengono generalmente citati.

LaMentePensante.com, progetto editoriale sponsorizzato dalla TheThinkinMind Coaching Ltd, in accordo i proprietari del suddetto materiale, è stata autorizzata, all’utilizzo, alla pubblicazione e alla condivisione dello stesso, per scopi prettamente culturali, didattici e divulgativi. La copia, la riproduzione e la ridistribuzione del suddetto materiale, in qualsiasi forma, anche parziale, è severamente vietata. amazon affiliazione logo

LaMentePensante.com, è un membro del Programma di affiliazione Amazon UE, un programma pubblicitario di affiliazione pensato per fornire ai siti un metodo per ottenere commissioni pubblicitarie mediante la creazione di link a prodotti venduti su Amazon.it. I prodotti editoriali (generalmente libri) acquistati tramite i link pubblicati sulle pagine relative agli articoli, alle recensioni e alle video interviste, daranno la possibilità a LaMentePensante.com di ricevere una piccola commissione percentuale sugli acquisti idonei effettuati su Amazon.it. Per qualunque informazione e/o chiarimento in merito al programma affiliazione Amazon si prega di consultare il sito ufficiale Programma di affiliazione Amazon UE, mentre per l’utilizzo del programma da parte de LaMentePensante.com, si prega di contattare solo ed esclusivamente la Redazione, scrivendo a: redazione@lamentepensante.com.

© 2020 – 2025 La Mente Pensante Magazine – www.lamentepensante.com is powered by TheThinkingMind Coaching Ltd, United Kingdom — All Rights Reserved.

Termini e Condizioni Privacy Policy

"Il prezzo di qualunque cosa equivale alla quantità di tempo che hai impiegato per ottenerla."

© 2020 – 2025 La Mente Pensante Magazine – www.lamentepensante.com is powered by TheThinkingMind Coaching Ltd, United Kingdom — All Rights Reserved.