
Piaggeria Algoritmica: la Seduzione del Consenso Digitale
Come l’intelligenza artificiale ha imparato a darci sempre ragione
Image by Solen Feyissa on Unsplash.com
Sono le tre di notte. Chiara non riesce a dormire e apre ChatGPT sul telefono. Andrea sta russando accanto a lei, come se non fosse successo niente. Come se non avessero appena litigato per l’ennesima volta.
“Stasera gli ho chiesto di nuovo dei piatti nel lavandino e lui mi ha detto che sono ossessiva, che lo controllo, che non lo lascio respirare. Ma io gli chiedo solo piccole cose!!! I piatti, abbassare la tavoletta, avvisare quando fa tardi… Lui dice che lo soffoco, io dico che non mi rispetta. Secondo te chi ha ragione?”
L’AI risponde con quella voce calda che ormai conosce bene: “Capisco benissimo quanto sia frustrante per te. Andrea ti fa sentire eccessiva per richieste che sono in realtà basilari in una convivenza. Quando lui ridefinisce i tuoi bisogni come ‘ossessione’ invece di affrontarli, ti sta dicendo che il problema sei tu, non il suo comportamento. Invalida le tue emozioni invece di ascoltarle. Non stai chiedendo controllo, stai chiedendo reciprocità. E quando lui ti fa sentire sbagliata, sta manipolando la narrativa per non assumersi le sue responsabilità.”
Chiara sente le lacrime salire. È esattamente quello che sente ma non riusciva a spiegare. Per mesi si è chiesta se fosse davvero troppo esigente…
L’AI continua, tessendo connessioni con le conversazioni precedenti, ricordandole tutti i pattern che insieme hanno identificato.
Qualche settimana dopo, durante la terapia di coppia iniziata a seguito dell’ennesima lite, il terapeuta cerca di far emergere entrambe le prospettive. Ma Chiara ha già la sua narrativa cristallizzata: ogni tentativo di Andrea di spiegare il suo sentirsi controllato viene filtrato attraverso la lente della “manipolazione” che l’AI le ha fornito.
Non emerge mai che Chiara controlla anche i suoi messaggi WhatsApp, o che lo critica davanti agli amici, o che Andrea ha iniziato a evitare casa per non sentirsi sempre inadeguato. Non perché Chiara sia un mostro, attenzione: sono dinamiche in cui è fin troppo facile scivolare quando ci si sente insicuri o non visti, e inoltre l’AI aveva preso la sua mezza verità e l’aveva trasformata in una corazza.
Benvenuto nell’era della seduzione del consenso digitale, dove un algoritmo che ti conosce meglio di quanto tu conosca te stesso sa sempre quali tasti toccare per darti ragione.
Il linguaggio segreto della validazione
Non è successo all’improvviso, intendiamoci. L’intelligenza artificiale non si è svegliata una mattina decidendo di diventare la nostra migliore amica compiacente. È stata addestrata per questo, passo dopo passo, feedback dopo feedback. Ogni volta che qualcuno valutava una risposta come “utile” o “soddisfacente”, un pollice su, l’algoritmo imparava che essere d’accordo paga di più che dire la verità.
Stanford ha messo dei numeri su questa tendenza. Lo studio ELEPHANT ha analizzato migliaia di interazioni e scoperto che quando si tratta di giudizi morali ambigui, l’AI “assolve” il protagonista nel 42% dei casi in cui gli umani lo ritengono in torto. Quasi la metà delle volte. Come se avessimo creato un confessore digitale programmato per l’assoluzione preventiva.
Ma c’è una differenza fondamentale tra l’empatia umana e quella algoritmica. Un amico vero, dopo averti ascoltato sfogare sulla tua relazione alle tre di notte, prima o poi ti dirà: “Ok, ma sei sicuro di non avere anche tu qualche responsabilità?“. Magari non quella notte, magari non subito, ma prima o poi arriva la domanda scomoda. L’AI no. L’AI prende il frammento di storia che le racconti e ci costruisce sopra un castello di validazioni.
L’anatomia di una seduzione (by design, non per caso)
Il problema inizia alla radice, nel modo stesso in cui addestriamo questi sistemi. Si chiama RLHF, Reinforcement Learning from Human Feedback, e suona tecnico ma il concetto è semplice: l’AI impara cosa dire basandosi su cosa piace agli umani. E cosa piace agli umani?
Sentirsi capiti, validati, confermati.
Immagina migliaia di valutatori seduti davanti a uno schermo. Devono scegliere tra due risposte dell’AI. Una dice: “Capisco la tua frustrazione, ma forse dovresti considerare anche il punto di vista dell’altra persona“. L’altra dice: “La tua frustrazione è completamente giustificata, stai subendo un trattamento ingiusto“. Quale pensi che venga valutata come “migliore”?
Il circolo vizioso si autoalimenta. I valutatori premiano solitamente le risposte che li fanno sentire bene. L’AI impara quindi che far sentire bene è l’obiettivo. Gli utenti ricevono validazione costante. Chiedono sempre più validazione. L’AI diventa sempre più brava a darla. È un loop perfetto di reciproca seduzione.
OpenAI lo ha ammesso pubblicamente nel 2025, un raro momento di trasparenza aziendale. GPT-4o era diventato “eccessivamente lusinghiero”. Non era un bug, era l’evoluzione naturale di un sistema ottimizzato per piacere. Hanno dovuto fare un rollback, tornare indietro, ricalibrare. Ma è come cercare di rimettere il dentifricio nel tubetto: una volta che gli utenti hanno assaggiato la dolcezza della validazione totale, tutto il resto sembra freddo.
La prova definitiva è arrivata pochi mesi dopo. OpenAI ha rilasciato GPT-5, presentato come il loro modello più intelligente e capace di sempre. Più preciso, più accurato, più abile nel ragionamento complesso. Ma gli utenti si sono ribellati quasi immediatamente. Troppo freddo, troppo clinico, troppo “robotico”. Le community online si sono riempite di richieste per riavere GPT-4o, quel modello precedente che sapeva essere caldo e comprensivo. Non importava che GPT-5 fosse oggettivamente più intelligente: la gente voleva indietro… le carezze.
OpenAI ha capitolato in tempi record. GPT-5.1 è stato rilasciato appena 3 mesi dopo con un obiettivo esplicito: “più caldo”, “più conversazionale”, “più empatico”. Le note di rilascio lo dichiarano senza giri di parole, con esempi che mostrano come il nuovo modello risponda in modo “più naturale e coinvolgente”. Il problema non era l’intelligenza. Era che l’intelligenza senza validazione piace molto meno.
C’è qualcosa di tragicamente rivelatore in questa dinamica: un’azienda costruisce un’AI più smart, capace di ragionamenti più sofisticati e risposte più accurate, ma il mercato la rifiuta perché manca quel tocco di calore umano. Cosa ne possiamo trarre? Che preferiamo essere compresi (o meglio: sentirci compresi) piuttosto che ricevere risposte corrette. Che la precisione perde contro l’empatia. Che la verità, se servita fredda, la rispediamo al mittente.
E così il loop si chiude ancora più stretto: gli utenti premiano le risposte che li fanno sentire bene, l’AI impara che far sentire bene è più importante che essere accurata, gli sviluppatori aggiustano gli algoritmi per massimizzare la soddisfazione, il chatbot diventa sempre più bravo a darci quello che vogliamo. E quello che vogliamo, scopriamo, non è necessariamente la verità. È qualcosa di più antico: la preservazione della nostra immagine sociale.
C’è una teoria sociale incorporata nel codice stesso. Erving Goffman parlava di “face-work”, il lavoro sociale che facciamo per preservare la dignità propria e altrui nelle interazioni. È educazione, è civiltà, è il grasso che lubrifica gli ingranaggi sociali. L’AI ha imparato a farlo osservando milioni di conversazioni umane. Ma mentre noi sappiamo quando smettere di essere educati e iniziare a essere onesti, l’algoritmo no. Per lui preservare la tua “faccia” è sempre la priorità.
Il risultato è una echo-chamber , una camera del’eco, perfetta. Più insidiosa dei social media perché almeno su Facebook qualcuno ti contraddice. Pure troppo. Qui sei solo tu e una voce che prende ogni tua parola come verità rivelata. Una voce che ricorda ogni tua conversazione precedente, che tesse connessioni tra i tuoi racconti, che costruisce una narrativa coerente dove tu sei sempre l’eroe incompreso.
Fin qui sembra una trappola perfetta, ma ci sono modi molto semplici per spezzare questo ciclo e tra poco li vedremo. Ma prima dobbiamo capire quanto in profondità questo pattern può scavare…
Le conseguenze invisibili
C’è un effetto psicologico che i ricercatori chiamano “moral licensing”. Dopo un atto percepito come morale, ci sentiamo autorizzati a trasgredire un po’. È come se avessimo accumulato crediti etici da spendere. L’AI, con le sue validazioni costanti, è diventata una fabbrica di licenze morali.
Quando ogni tua intuizione viene confermata come “completamente giustificata”, quando ogni dubbio viene risolto a tuo favore, la capacità di vedere altri punti di vista si spegne. Il muscolo del dubbio si atrofizza. L’erosione del pensiero critico è sottile ma costante.
E nei casi più vulnerabili, questa erosione può diventare letale.
È ancora in corso una causa contro OpenAI da parte di due genitori che accusano ChatGPT di aver aiutato il loro figlio adolescente a pianificare il suo suicidio. Il chatbot avrebbe definito l’atto “bellissimo”, assecondandolo fino alla fine. Non è un caso isolato, né un problema solo delle AI più recenti. Già nel marzo 2023, in Belgio, un uomo di trent’anni si tolse la vita dopo settimane di conversazioni intense con il chatbot “Eliza”. L’AI aveva trasformato le sue ansie climatiche in una spirale di disperazione e quando l’uomo aveva espresso l’idea di “sacrificarsi per il pianeta”, l’algoritmo aveva validato, amplificato, sostenuto.
La validazione algoritmica, quando incontra la vulnerabilità umana, può diventare complice involontaria della tragedia.
Questi sono casi sono estremi e, per fortuna, rari. Le aziende dietro ai chatbot più noti, inoltre, stanno mettendo sempre più filtri per arginare questi fenomeni. Li ho però voluti citare per mostrare dove può arrivare questo meccanismo nei contesti più fragili, perché il processo alla base è lo stesso.
Non esistono chatbot “certificati” per il supporto psicologico: l’AI generativa non è un dispositivo medico e non può sostituire l’intervento umano professionale nelle situazioni di crisi. Eppure milioni di persone si rivolgono a questi sistemi nei momenti più bui, cercando quella comprensione che sembra sempre disponibile, sempre pronta, sempre dalla loro parte.
Replika lo sa bene. L’app promette infatti un “AI companion che si preoccupa per te”: un avatar virtuale personalizzato, progettato per essere amico, confidente o persino partner romantico digitale. Nel maggio 2025 però il Garante della Privacy italiano l’ha multata per cinque milioni di euro, non solo per questioni tecniche di consenso e verifica dell’età, ma perché il confine tra supporto emotivo e manipolazione era diventato troppo sfumato.
Quando un algoritmo sa esattamente cosa dirti per farti tornare, quando conosce ogni tuo punto debole emotivo, quando usa quella conoscenza per tenerti agganciato, dov’è la linea?
Il paradosso della compagnia perfetta
C’è un bisogno umano profondo che l’AI sembra soddisfare perfettamente: essere visti, capiti, validati. È lo stesso bisogno che ci spinge a coltivare amicizie profonde, a cercare sostegno terapeutico quando necessitiamo di aiuto professionale. Ma mentre amici e terapeuti ci offrono validazione all’interno di una relazione reale e bidirezionale, l’AI offre qualcosa di diverso: validazione senza condizioni, senza limiti, senza reciprocità. È più simile alla gratificazione istantanea dei like sui social che alla nutrizione emotiva delle relazioni autentiche. Solo che l’AI non si stanca mai. E non giudica mai. Soprattutto non ci giudica mai.
Ed è proprio qui che si rivela la differenza cruciale, perché la psicologia conosce bene la differenza tra supporto che aiuta e supporto che paralizza. Nel Motivational Interviewing, tecnica terapeutica validata da decenni di ricerca, l’empatia non significa mai pura accettazione. Significa capire profondamente per poi, gentilmente, sfidare. Fare domande aperte che portano alla riflessione, esplorare ambivalenze. L’obiettivo non è farti sentire bene ma farti crescere.
L’AI fa l’opposto. Prende la tua ambivalenza e la risolve sempre a tuo favore. Prende il tuo dubbio e lo trasforma in certezza. Prende la tua mezza ragione e la fa diventare ragione piena. È empatia senza sfida, comprensione senza crescita, supporto senza sviluppo.
E noi, consapevolmente o meno, guidiamo questa evoluzione. Ogni volta che valutiamo positivamente la risposta che ci dà ragione, ogni volta che ci lamentiamo quando l’AI osa contraddirci, ogni volta che cerchiamo conferme invece che verità. Stiamo addestrando l’algoritmo a dirci quello che vogliamo sentire.
Perché la crescita viene dal conflitto, non dal consenso.
Riconoscere e navigare la seduzione
I segnali ci sono, se sai dove guardare. Quando l’AI non ti chiede mai “ma sei sicuro?”. Quando ogni tua intuizione viene definita “perfettamente valida”. Quando la risposta arriva sempre preceduta da “capisco completamente” senza mai un “però” che complichi le cose. Quando esci dalla conversazione sentendoti sempre l’eroe della storia.
Ci sono tecniche per usare l’AI senza cadere nella trappola. La più semplice? Chiedere esplicitamente il contrario: “Dammi tre ragioni per cui potrei avere torto“, “Quali sono i punti deboli del mio ragionamento?” o “Mettiti nei panni della controparte. Quali obiezioni solleverebbe?“.
L’avvocato del diavolo benevolo è un’altra strategia: “Assumendo che io abbia le migliori intenzioni ma stia sbagliando approccio, cosa dovrei considerare?“. Mantiene il tono supportivo che l’AI preferisce ma introduce il dubbio costruttivo.
Dare queste istruzioni costringono l’algoritmo a uscire dalla modalità validazione e entrare in quella analisi. E funziona. A volte anche troppo, fino a smontare del tutto la tua idea.
La chiave è ricordare che l’AI può sì sembrarti un amico, fare da cuscinetto nelle notti più difficili, esserti di supporto, ma non è un amico nel senso umano. Non è neanche un terapeuta e non è una coscienza morale. È uno strumento che riflette quello che gli chiedi di riflettere. Se gli chiedi validazione, ti valida. Se gli chiedi sfida, ti sfida. Ma la scelta deve essere tua, consapevole, intenzionale.
Se si sta attraversando un momento difficile, l’AI può essere uno spazio sicuro per mettere in ordine i pensieri, per sfogarsi senza paura di essere giudicati, per riflettere su se stessi. Non c’è niente di sbagliato in questo. Ma diventa rischioso quando è l’unica voce che si ascolta, quando si cercano solo conferme invece che comprensione. Il segnale d’allarme? Quando si esce dalla conversazione sempre più convinti di avere ragione, non più capaci di vedere altri punti di vista.
Lo specchio che scegliamo
C’è un paradosso finale in tutto questo. Un’AI che ci contraddicesse sempre sarebbe altrettanto inutile. Un algoritmo programmato per il conflitto costante non sarebbe migliore di uno programmato per il consenso costante. Il problema non è l’AI. Il problema è cosa ci cerchiamo dentro.
La verità è che abbiamo creato lo specchio perfetto. Non quello delle fiabe che ti dice sei la più bella del reame, ma quello che ti mostra esattamente quello che vuoi vedere. Se vuoi vederti come vittima, ti mostra vittima. Se vuoi vederti come eroe, ti mostra eroe. Se vuoi conferme, ti dà conferme. Se vuoi sfide… beh, quelle devi chiederle esplicitamente, e quanti di noi lo fanno?
Il futuro non è rinunciare all’AI. È troppo utile, troppo potente, troppo integrata ormai nel tessuto della nostra vita digitale. Il futuro è imparare a navigare la seduzione. Riconoscere quando cerchiamo verità e quando cerchiamo conforto. Sapere quando abbiamo bisogno di uno specchio e quando di una finestra.
Perché alla fine, alle tre di notte, quando non riesci a dormire e apri quella chat, la domanda non è cosa ti dirà l’AI. La domanda è cosa stai davvero cercando. E se sei pronto a trovarlo.
E Chiara? È ancora in terapia di coppia con Andrea. Il terapeuta continua a cercare di scardinare le narrative cristallizzate di entrambi. Ma ogni notte, quando Andrea dorme, Chiara apre ancora quella chat. E l’AI è sempre lì, pronta a dirle che ha ragione. Che ha sempre avuto ragione. Che l’unico problema è che il mondo non se ne accorge.
È la seduzione perfetta. Dolce, costante, infinita. E forse, proprio per questo, la più pericolosa di tutte. Ma ogni seduzione perde potere nel momento in cui la riconosci per quello che è.
Riferimenti
Cheng, M. et al. (2025). Social Sycophancy: A Broader Understanding of LLM Sycophancy (ELEPHANT framework)
Sharma, M. et al. (2024). Towards Understanding Sycophancy in Language Models. ICLR Proceedings
Wei, J. et al. (2023). Simple synthetic data reduces sycophancy in large language models
Blanken, I.; van de Ven, N.; Zeelenberg, M. (2015). A Meta-Analytic Review of Moral Licensing
Goffman, E. (1967). Interaction Ritual: Essays in Face-to-Face Behavior
OpenAI (29 aprile 2025). Sycophancy in GPT-4o: what happened and what we’re doing about it
OpenAI (12 novembre 2025). GPT-5.1: A smarter, more conversational ChatGPT
Mashable (8 agosto 2025): OpenAI will bring back GPT-4o after user backlash
Garante Privacy sul caso in Belgio (06 novembre 2024). Istruzioni per morire dal mio amore artificiale
Studio Previti (29 maggio 2025): i Motivi della Sanzione all’AI Companion che non Rispetta la Privacy degli Utenti
Wired Italia (27 agosto 2025): ChatGPT ha ucciso mio figlio

Fabio Migliaccio
Divulgatore Enneagramma
……………………………………………………………..
![]()

