
Psicoterap-IA: verso i terapeuti artificiali
L’Intelligenza Artificiale può essere psicoterapeuta?
Image by Igor Omilaev on Unsplash.com
Negli ultimi anni, l’intelligenza artificiale (IA) ha compiuto progressi straordinari, tanto da essere applicata a diversi contesti della nostra vita quotidiana. Tra queste aree di vita, uno dei campi più discussi e controversi, è quello sanitario. In questo ambito, l’IA non è stata solo usata per facilitare i processi diagnostici, ma anche ma ha anche inaugurato i progressi rivoluzionari nella medicina personalizzata. Nel campo della salute mentale si sta lavorando per capire come (e se) sia possibile assistendo integrare sistemi di IA per far fronte ad una crisi globale caratterizzata da una crescente domanda e risorse insufficienti.
Di questi ultimi tempi, sempre più persone si sono chieste: una IA può fare terapia? Se dovessi provare a rispondere io, dirsi di “sì”. Un’altra domanda in merito a questo tema si spinge ancora oltre: può una IA sostituire il terapeuta? La mia personale risposta è “probabilmente no”.
Potrebbe sembrare contradditorio: se un’IA può fare terapia, perché non dovrebbe poter sostituire il terapeuta? Per capire di capire meglio questo tema, facciamo uno step indietro e cerchiamo di farci un’idea generale su come funziona la terapia.
Dalla psicoterapia freudiana alle terapie virtuali
La psicoterapia si fonda sulla psicoanalisi tradizionalmente associata alla figura di Freud e Jung. La psicoanalisi, in modo molto semplificato, era una “terapia della parola”: si chiedeva alla persona di sdraiarsi su un lettino mentre il terapeuta sedeva dietro di lei, e le si chiedeva di pensare ad alta voce. Questo flusso di libere associazioni avrebbe dovuto portare a capire cosa stesse succedendo nel subconscio della persona, e da qui il terapeuta avrebbe potuto iniziare ad impostare il lavoro terapeutico.
Tale approccio suonò come una fregatura a diverse persone, tra cui i comportamentisti. Questi, infatti, sostenevano che quello che davvero aveva rilevanza nel determinare il benessere di una persona fossero le azioni. L’approccio comportamentista, quindi, propose di lasciare da parte l’inconscio per lavorare sui comportamenti. L’idea di base era quella di lavorare sulla relazione tra i pensieri, emozioni ed azioni. Oggi conosciamo l’evoluzione dell’approccio comportamentista sotto il nome di terapia cognitivo-comportamentale (CBT).
Diverse revisioni della letteratura scientifica hanno mostrato che in realtà non esiste un approccio terapeutico definibile in assoluto migliore rispetto ad un altro. Quindi, se entrambi gli approcci – psicoanalisi e CBT in questo caso – funzionano ugualmente bene, doveva esistere un fattore comune che si distaccasse dalla metodologia in senso stretto. Questo fattore comune possiamo chiamarlo: “relazione”. Ci fidiamo del nostro terapeuta? Ci sentiamo ascoltati davvero? Ci sentiamo accettati e non giudicati? In un grosso cambio di paradigma, si era capito che il valore della terapia non aveva a che fare con le metodologie terapeutiche, ma piuttosto con la relazione che la persona sviluppava con il terapeuta.
Nel corso degli anni, l’approccio comportamentista ha sviluppato protocolli di intervento sempre più sofisticati e schematizzati: ad esempio, un protocollo di CBT può prevedere di lavorare su un certo aspetto la settimana 1, su un altro la settimana 2, e così via. Sorse quindi spontanea la domanda: abbiamo bisogno di un terapeuta umano per un approccio così sistematico? Un computer non può guidare una persona attraverso un protocollo strutturato? Queste domande hanno portato a studiare quella che venne chiamata CBT computerizzata, cioè la terapia cognitivo-comportamentale erogata da un computer (o da un programma; Blackwell & Heidenreich, 2021). Immaginiamo ad esempio che invece di interagire con un terapeuta in carne ed ossa, ci troviamo a fare terapia con un chatbot o un avatar. Con grande sorpresa, i dati di questi studi hanno mostrato che anche questa forma digitalizzata di terapia era efficace (Adelman et al., 2014). Se il fattore comune chiave era la relazione umana, come spiegare l’efficacia della CBT computerizzata?
Facciamo uno step in più. La terapia di compone in primis di due ingredienti diversi. Una parte del percorso terapeutico consiste in un certo senso nell’aiutare la persona a comprendere la propria mente, fornendo conoscenze, strumenti o competenze. L’altra parte della terapia è invece qualcosa di più empatico, legato alla connessione umana. Riuscire a creare un legame di fiducia in un essere umano attiva un “circuito empatico” che aiuta a guarire, portandoci a vedere e comprendere le cose – compreso noi stessi – in un modo diverso. Quando un terapeuta ci tratta in modo non giudicante e compassionevole, in un certo senso lo integriamo in noi stessi e cambiamo, ad esempio, il nostro dialogo interiore. Quindi, quando qualcuno ci tratta con compassione, impariamo l’autocompassione, l’accettazione e a vedere le cose in modi diversi.
In modo molto riassuntivo e semplificato, questi potrebbero essere visto come i due elementi della terapia.
E ora possiamo iniziare a vedere come un’IA potrebbe essere in grado di fare terapia senza però andare a sostituire il terapeuta (almeno, ad oggi). Una IA potrebbe essere in grado di sottoporre la persona ad un protocollo di CBT e potrebbe avere successo nella trasmissione di conoscenza, strumenti e nell’ aiutare la persona a sviluppare delle competenze. Si tratterebbe in un certo senso di svolgere degli esercizi sotto la guida di una IA che deve seguire uno schema predefinito e standardizzato. Tuttavia, tale IA potrebbe non essere in grado di sostituire il terapeuta, perché non in grado di provare e trasmettere genuina e sincera empatia. In altri termini, l’IA non è in grado di sostituire a tutti gli effetti la connessione umana.
IA empatiche
L’empatia consiste nel trovare echi di un’altra persona in te stesso. – (Mohsin Hamid).
La ricerca sulle intelligenze artificiali empatiche è una branca emergente dell’IA che mira a dotare i sistemi artificiali della capacità di riconoscere, comprendere e rispondere alle emozioni umane in modo sensibile e appropriato. L’obiettivo è sviluppare IA che non solo comprendano il linguaggio o le azioni degli utenti, ma che sappiano anche cogliere i segnali emotivi—come tono della voce, espressioni facciali, e persino il contesto sociale—per offrire interazioni più umane e personalizzate.
Attualmente, l’IA può simulare una forma di empatia cognitiva, ovvero la capacità di riconoscere e comprendere le emozioni degli esseri umani attraverso l’analisi di dati comportamentali, linguistici o biometrici. Questo tipo di empatia computazionale si basa su algoritmi avanzati che processano informazioni come il tono della voce, le espressioni facciali o le scelte lessicali, generando risposte apparentemente “empatiche.” Tuttavia, l’IA non può vivere o sperimentare emozioni e manca di due componenti fondamentali dell’empatia umana (Zaki & Ochsner, 2012): empatia emotiva – la capacità di mettersi nei panni dell’altra persona e provare un rispecchiamento affettivo rispetto al loro stato emotivo – ed empatia motivazionale – la spinta genuina a preoccuparsi per il benessere dell’altro e ad agire per aiutarlo. Questa componente implica intenzionalità e valori etici che vanno oltre la semplice simulazione.
Di conseguenza, le interazioni con sistemi di IA, per quanto sofisticate, rimangono una forma di “empatia computazionale”. Questo termine riflette la natura meccanica e pre-programmata delle risposte generate dall’IA, che sono più simili a un processo di inferenza algoritmica piuttosto che a una reale esperienza emotiva. L’empatia computazionale è progettata per imitare comportamenti empatici al fine di migliorare l’interazione uomo-macchina, ad esempio nei chatbot terapeutici, nell’assistenza clienti o in robot sociali.
Nonostante i progressi, questa limitazione evidenzia un divario insormontabile tra l’empatia umana e quella artificiale: l’assenza di un “sé” e di emozioni reali nelle IA impedisce loro di partecipare pienamente alle dinamiche interpersonali. Questo aspetto ha implicazioni etiche e pratiche significative, specialmente in contesti in cui la connessione emotiva autentica è cruciale, come nella terapia psicologica o nella cura dei pazienti.
Verso il futuro: collaborazione o sostituzione?
L’intelligenza artificiale rappresenta una frontiera entusiasmante. Sebbene i sistemi di IA non possano ancora sostituire l’intuizione e l’empatia umana, il loro contributo potrebbe trasformare il modo in cui concepiamo la salute mentale, rendendola più accessibile e personalizzata. La vera sfida sarà quindi integrare queste tecnologie in modo etico e responsabile, creando delle terapie ibride che mettano al centro il benessere del paziente.
Come riportato dal Dott. John Torous, direttore di psichiatria digitale presso il Beth Israel Deaconess Medical Center e professore associato di psichiatria presso la Harvard Medical School: “Negli ultimi decenni abbiamo avuto molti ottimi libri […] e app di auto-aiuto. Questi non hanno sostituito gli psicoterapeuti. L’intelligenza artificiale può fare molte cose meravigliose, ma le persone desiderano connettersi con altre persone […]. Tuttavia, l’intelligenza artificiale avrà un ruolo nel potenziare la terapia, rendendola efficace e di impatto. […]”.
Nella mia personale opinione, dovremmo iniziare a vedere l’IA come uno strumento a supporto del benessere psicologico e della comprensione dell’essere umano, piuttosto che come un sostituto.
Bibliografia
Adelman, C. B., Panza, K. E., Bartley, C. A., Bontempo, A., & Bloch, M. H. (2014). A meta-analysis of computerized cognitive-behavioral therapy for the treatment of DSM-5 anxiety disorders. The Journal of Clinical Psychiatry, 75(7), 11699.
Blackwell SE, Heidenreich T. Cognitive behavior therapy at the crossroads. Int J Cogn Ther. (2021) 14:1–22. doi: 10.1007/s41811-021-00104-y
Zaki, J., Ochsner, K. The neuroscience of empathy: progress, pitfalls and promise. Nat Neurosci 15, 675–680 (2012). https://doi.org/10.1038/nn.3085
https://tech4future.info/empatia-psicoterapia-intelligenza-artificiale/
Dott.ssa Giulia Brizzi
Psicologa e Dottoranda di Ricerca in Psicologia
……………………………………………………………..