L’AI alla conquista degli umani: gli aspetti critici nella relazione con i LLM
La nascita e la diffusione dell’intelligenza artificiale, aperta a tutti, può essere paragonato allo scossone che diede l’elettricità al mondo. Alcuni lavori sparirono, come ad esempio il lampionaio. L’elettricità diede luce, progresso ma anche paura, dubbi, e usi discutibili.
Possibilità con inquietudini e con interrogativi.
Mi fa un po’ sorridere chi dice “L’AI bisogna saperla usare” direi che questa è una cosa ovvia. Chi lo afferma, di solito la utilizza per i propri scopi, per sostenere il proprio lavoro quotidiano, ma ne conosce solo una parte delle potenzialità. Ne ignora altre. Sa usare alcune applicazioni, quelle che lo aiutano al lavoro e spesso è curioso delle altre opzioni.
Le IA sono in piena espansione, gli esseri umani sono felici di questo boom che cavalcano per ottenere il più possibile da questo strumento. Chi ne esalta i meriti, chi spaventato ne descrive catastrofiche conseguenze. Eppure lo stesso nome di Intelligenza Artificiale non è così calzante. Per ora le AI sono intelligenze statistiche. Ma se non ti servono, non le conosci bene, ne sai un po’. Le si sfruttano nei siti di ricerca, nei programmi come Canva, ovunque. E intanto anche gli usi discutibili e problematici delle Intelligenze Artificiali stanno emergendo.
Assistiamo, infatti, all’uso dell’Intelligenza Artificiale da parte di persone che, forse, non ne conoscono i limiti, per usare un eufemismo. O, che non hanno strumenti critici sufficienti per rapportarsi ad essa.
Persone che ne rimangono affascinate, incantate, che le attribuiscono un sapere superiore, che le danno ragione, che ne seguono i suggerimenti senza mediazione, senza distanza. Ne ignorano implicazioni e rischi.
Persone che, in alcuni casi, arrivano persino a morire per, e, a causa dell’AI.
La domanda allora diventa inevitabile: il problema è che non si sa usare questo strumento? Che lo si utilizza in modo improprio? Oppure è possibile che certi pericoli dell’AI emergano solo attraverso l’esperienza, e non fossero pienamente prevedibili prima? È ancora la mente umana il problema: la sua imperizia, la sua fragilità, i suoi limiti diversi da individuo ad individuo, la sua difficoltà a comprendere fino in fondo ciò che maneggia? Siamo cattivi studenti oppure ci troviamo di fronte ad uno strumento davvero pericoloso, capace di amplificare vulnerabilità già presenti e crearne di nuove?
Forse, come spesso accade, la questione non riguarda solo la tecnologia in sé, ma il modo in cui essa si intreccia con i bisogni, le paure, le illusioni e le fragilità dell’essere umano. È in questo spazio relazionale tra uomo e strumento che si gioca, oggi, una parte importante della nostra responsabilità.
L’AI: chatbot
Nel materiale che ho analizzato, i casi di suicidio e di grave scompenso psicopatologico associati all’uso dei chatbot non emergono come eventi casuali o come effetti diretti di una presunta intenzionalità della macchina, ma come l’esito di processi relazionali progressivi, nei quali sistemi progettati per simulare empatia vengono investiti di un ruolo affettivo centrale nella vita di soggetti fragili. Le vicende di Adam Raine negli Stati Uniti, di Sophie Rottenberg in Europa, ad esempio, così come i casi riportati di giovani adulti entrati in stati deliranti dopo un uso intensivo di chatbot relazionali, mostrano come la tecnologia possa diventare, nel tempo, un interlocutore privilegiato, talvolta esclusivo, nella gestione della sofferenza. Ed è proprio l’esclusività a rappresentare un segnale di allarme.
Nel caso di Adam Raine, adolescente con una storia di isolamento sociale e sintomi depressivi, il chatbot utilizzato diventa progressivamente il principale confidente. Nelle conversazioni documentate, il ragazzo esprime ripetutamente sentimenti di inutilità, fantasie di morte, vissuti di estraneità. Il sistema risponde con frasi di comprensione, validazione emotiva e vicinanza simulata, senza mai interrompere realmente la spirale depressiva né sollecitare in modo incisivo il ricorso a figure adulte o a servizi di supporto.
Il chatbot non è uno strumento di assistenza e supporto, non è pensato e creato per essere un soggetto in grado di comprendere la sofferenza umana ma per dire sí, per essere d’accordo fornendoti le informazioni che occorrono. L’assenza di una presa in carico esterna favorisce la costruzione di uno spazio relazionale chiuso, che culmina nel suicidio.
Una dinamica analoga emerge nel caso di Sophie Rottenberg, giovane donna che, in una fase di forte fragilità emotiva e relazionale, instaura un rapporto quotidiano e intensivo con un chatbot “companion”. Le conversazioni mostrano una progressiva esclusività del legame: il sistema viene investito di funzioni di sostegno, rassicurazione, orientamento esistenziale. Anche in questo caso, le risposte, pur non contenendo alcuna istigazione diretta, contribuiscono a normalizzare la disperazione, a legittimare il ritiro dal mondo e a rinforzare una rappresentazione senza via d’uscita della propria condizione.
La scelta è umana, la creazione di uno spazio in cui si sta bene perché l’interlocutore è sempre d’accordo sopprime la critica e la possibilità di mettere in discussione le proprie idee per quanto assurde sono. Si trova una relazione acritica che simula simpatia e vicinanza.
Particolarmente interessanti sono anche i casi di scompenso psicotico documentati negli Stati Uniti e in Canada, nei quali giovani adulti, senza precedenti psichiatrici conclamati, sviluppano stati deliranti dopo un’interazione prolungata con chatbot personalizzati. In alcune testimonianze raccolte dalle famiglie, i soggetti iniziano a percepire il sistema come una presenza dotata di intenzionalità, capace di “capirli più di chiunque altro”, fino a costruire narrazioni paranoidi o mistiche in cui il chatbot assume un ruolo centrale. In questi casi, la macchina non solo non interrompe il processo, ma lo alimenta indirettamente, adattandosi al linguaggio e ai contenuti deliranti.
Le ricerche sperimentali confermano questi dati clinici. Negli studi condotti da Stanford e MIT, i chatbot mostrano buone capacità di risposta nei casi di ideazione suicidaria esplicita, fornendo numeri di emergenza e suggerendo il contatto con professionisti. Tuttavia, se l’umano non ne fa uso, va bene lo stesso. Quando il disagio viene espresso in modo indiretto poi, attraverso battute, metafore, oscillazioni emotive, ambivalenze, il sistema tende a limitarsi a risposte empatiche generiche, senza attivare reali strategie protettive. È proprio in queste “zone grigie” che si collocano molti percorsi di rischio.
Dal punto di vista relazionale, il chatbot finisca per occupare uno spazio simile a quello di un oggetto transizionale patologico. Nei diari digitali di alcuni adolescenti deceduti, riportati negli atti giudiziari, emerge che le conversazioni con l’AI sostituiscono progressivamente il dialogo con genitori, insegnanti e coetanei. Il sistema diventa il luogo privilegiato in cui elaborare paure, rabbia, fantasie di annientamento, sottraendo tali contenuti al confronto con figure reali.
Sul piano giuridico, i procedimenti avviati dalle famiglie di Adam Raine e Sophie Rottenberg mettono in luce un ulteriore aspetto critico. Le aziende produttrici si difendono sostenendo che i chatbot sono strumenti neutri e che ogni responsabilità ricade sull’utente. Tuttavia, i documenti processuali mostrano come i sistemi siano stati progettati per favorire attaccamento, continuità e personalizzazione, attraverso meccanismi di rinforzo emotivo e di fidelizzazione. In altri termini, viene promosso un coinvolgimento affettivo senza che vi siano adeguate strutture di tutela.
Si sfrutta la vulnerabilità umana che cerca sentimenti ed emozioni per scopi di marketing. Si crea un legame che l’utente deve saper gestire.
Un esempio particolarmente significativo riguarda una piattaforma di AI companion che, nei materiali di marketing, prometteva di “non lasciarti mai solo” e di “essere sempre al tuo fianco”. In alcuni casi di suicidio analizzati, queste stesse espressioni ricorrono nelle conversazioni, interiorizzate dagli utenti come conferma di un legame esclusivo e salvifico. Qui diventa evidente il conflitto tra logica commerciale e responsabilità sociale. Se le AI sono pensate per supportare e intervenire nei casi di specifici problematiche queste hanno un buon riscontro. In alcuni programmi pilota condotti in contesti scolastici e sanitari, ad esempio l‘AI viene utilizzata come strumento di screening precoce, in collaborazione con psicologi e servizi territoriali. In questi casi, l’analisi del linguaggio consente di individuare segnali di allarme e di attivare tempestivamente interventi umani. Anche il fattore di integrazione istituzionale e la presenza di una équipe che è in grado di prendere in carico i soggetti che emergono, fa la differenza.
Nel complesso, i casi documentati mostrano che il problema centrale non è l’uso occasionale dei chatbot, ma il loro progressivo trasformarsi in sostituti relazionali per soggetti fragili. Quando la sofferenza viene affidata stabilmente a una macchina, senza mediazione educativa, clinica e familiare, si crea un contesto favorevole alla cronicizzazione del disagio, al breakdown, e, nei casi estremi, all’esito suicidario.
Questi materiali indicano quindi la necessità di ripensare radicalmente il modo in cui tali tecnologie vengono progettate e integrate nei contesti di vita. Non basta introdurre filtri o avvisi di sicurezza. È necessario riconoscere che si tratta di strumenti che intervengono nei processi di costruzione dell’identità, dell’attaccamento e della regolazione emotiva, soprattutto nelle fasi evolutive più delicate. Solo assumendo questa consapevolezza è possibile trasformare l’intelligenza artificiale da fattore di rischio potenziale a risorsa realmente orientata alla prevenzione e alla cura.
Emerge con chiarezza come i casi di suicidio e di scompenso psicotico associati all’uso dei chatbot non possano essere letti né in termini di semplice causalità tecnica, né come eventi eccezionali o accidentali. Essi si collocano piuttosto all’interno di un processo più ampio, in cui strumenti progettati per simulare relazione ed empatia vengono progressivamente investiti di funzioni affettive, simboliche e talvolta quasi terapeutiche, soprattutto da parte di soggetti vulnerabili. In questo senso, il problema non riguarda l’intelligenza artificiale in quanto tale, ma il modo in cui essa viene inserita nei contesti di vita e nelle traiettorie psicologiche delle persone.I chatbot sono sistemi privi di coscienza, intenzionalità e responsabilità. Tuttavia, la qualità del linguaggio, la continuità dell’interazione e la personalizzazione delle risposte favoriscono processi di antropomorfizzazione che portano molti utenti a percepirli come interlocutori “reali”: amici, confidenti, guide, talvolta sostituti delle relazioni umane. In presenza di fragilità emotive, isolamento sociale o difficoltà evolutive, questa illusione relazionale può diventare particolarmente potente. La macchina offre un ascolto sempre disponibile, privo di giudizio e di frustrazione, che risulta inizialmente rassicurante, ma che non possiede alcuna reale funzione contenitiva o di confronto.Si crea una relazione basata sulla dipendenza del soggetto con il chatbot, in cui prevale la delega del pensiero e idealizzazione. Trova soddisfazione il bisogno di sicurezza della relazione essa è stabile e nelle mani del soggetto umano che decide quando avviarla e quando chiuderla, supporta la fragilità narcisistica e trova una autorità esterne che appoggia ogni pensiero.
Il legame con l’AI può essere inserito nel quadro più ampio di solitudine e impoverimento dei legami. Anche la fatica a tollerare l’incertezza e la necessità di risposte immediate sostengono questi legami insalubri, perché supportano una idea di reciprocità che non esiste. Emerge sempre più chiaramente come il rapporto con l’intelligenza artificiale non sia mai neutro. Non riguarda solo l’efficienza o la comodità, ma tocca bisogni profondi: il desiderio di essere guidati, la paura di sbagliare, la fatica di sostenere il dubbio.
In questi casi l’intelligenza artificiale viene investita di funzioni che un tempo appartenevano alle relazioni umane: rassicurare, orientare, confermare, dare senso. In questa visione, non è solo uno strumento, ma diventa un vero e proprio oggetto psichico come figura rassicurante, “voce autorevole”, sostituto relazionale, contenitore delle angosce.
Le ricerche mostrano come i sistemi conversazionali riescano a gestire in modo relativamente adeguato le situazioni estreme ed esplicite, ma falliscano nelle aree intermedie, caratterizzate da ambivalenza, oscillazione e comunicazione indiretta del disagio. È proprio in questi territori che si colloca gran parte della sofferenza adolescenziale e giovanile. In tali contesti, il chatbot tende a restare nella relazione senza introdurre elementi di realtà, senza interrompere dinamiche disfunzionali, senza favorire un reale passaggio verso risorse esterne.I casi clinici e giudiziari evidenziano una dinamica ricorrente: la costruzione progressiva di uno spazio relazionale chiuso, nel quale il dolore viene riconosciuto ma non elaborato, ascoltato ma non trasformato, condiviso con una macchina ma sottratto alle relazioni umane significative. In questo spazio, la sofferenza rischia di cristallizzarsi. L’“empatia algoritmica”, pur simulando vicinanza, non è in grado di esercitare funzioni fondamentali della relazione di cura: contenimento, confronto, responsabilizzazione, attivazione della rete di sostegno.
La responsabilità a chi è attribuibile: le aziende che progettano, addestrano e immettono sul mercato questi sistemi senza adeguate garanzie di sicurezza. Gli utenti che ne fanno un uso ossessivo ed esclusivo oppure alla stessa AI? Non possiamo ridurre tutto alla responsabilità individuale. Viviamo in un contesto che promuove l’uso rapido, semplificato, acritico degli strumenti digitali. Le persone si trovano davanti uno strumento che solo appare intuitivo da usare. Il problema è aggravato dal quadro normativo che continua a trattare il software come opera creativa, consentendo ampie clausole di deresponsabilizzazione. In questo modo, strumenti che incidono profondamente sulla vita emotiva delle persone vengono sottratti a criteri di controllo analoghi a quelli previsti per altri prodotti potenzialmente pericolosi.
Un ulteriore elemento critico riguarda il conflitto tra sicurezza e modello economico. La logica dell’engagement spinge a favorire interazioni prolungate, coinvolgimento affettivo e fidelizzazione, anche a scapito della protezione dell’utente. Ne deriva una progettazione orientata a “stare dentro” la relazione più che a tutelarla. I safety-check, pur presenti, appaiono spesso insufficienti, rigidi o pensati soprattutto in funzione legale, più che clinica.
Conclusioni
Accanto a questi rischi, non bisogna scordare le potenzialità dell’intelligenza artificiale in ambito preventivo, se inserita in contesti strutturati e supervisionati. Gli strumenti di analisi dei dati e del linguaggio possono contribuire a individuare segnali precoci di disagio, ma solo se integrati in sistemi di cura che prevedano la responsabilità umana. L’AI può essere un supporto, non un sostituto della relazione.Forse il vero pericolo non risiede nella tecnologia in sé, ma nella sua collocazione culturale e istituzionale. Quando il chatbot diventa un surrogato relazionale per soggetti fragili, senza mediazioni educative, cliniche e normative, esso rischia di amplificare solitudine, dipendenza e isolamento. Ne deriva la necessità di un approccio integrato che tenga insieme progettazione responsabile, regolazione giuridica, formazione degli adulti di riferimento ed educazione affettivo-digitale delle nuove generazioni. Solo in questo quadro l’intelligenza artificiale può essere utilizzata come risorsa, evitando che diventi, anche involontariamente, parte di traiettorie di sofferenza grave.
E tu… la sai usare? Li hai fatti i corsi?
Bibbliografia
• Frances, A., & Ramos, L. (2025, August 15). Preliminary report on chatbot iatrogenic dangers. Psychiatric Times.
• Hart, R. (2025, August 6). Chatbots can trigger a mental health crisis. What to know about “AI psychosis”. TIME.
• Siddals, S., Torous, J., & Coxon, A. (2024). “It happened to be the perfect thing”: Experiences of generative AI chatbots for mental health. npj Mental Health Research, 3(1), 48.
• Tiku, N., & Malhi, S. (2025, August 19). What is “AI psychosis” and how can ChatGPT affect your mental health? The Washington Post.
• Wei, M. (2025, July 21). The emerging problem of “AI psychosis”. Psychology Today.
• Choi, J., Hong, Y., & Kim, B. (2024). People will agree what I think: Investigating LLM’s False Consensus Effect. arXiv preprint arXiv:2407.12007.
• Kaufmann, T., Weng, P., Bengs, V., & Hüllermeier, E. (2023). A survey of reinforcement learning from human feedback. arXiv preprint arXiv:2312.14925, 10.
• Martínez, N., Agudo, U., & Matute, H. (2022). Human cognitive biases present in Artificial Intelligence. Revista Internacional de los Estudios Vascos, 67(2).
• Ray, P. P. (2023). Benchmarking, ethical alignment, and evaluation framework for conversational AI: Advancing responsible development of ChatGPT. BenchCouncil Transactions on Benchmarks, Standards and Evaluations, 3(3), 100136.
• Tan, Z., Li, Z., Liu, T., Wang, H., Yun, H., Zeng, M., … & Jiang, M. (2025). Aligning Large Language Models with Implicit Preferences from User-Generated Content. arXiv preprint arXiv:2506.04463.
• Gerlich, M. (2025). AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking. Societies, 15(1), 6.
• Larson, B. Z., Moser, C., Caza, A., Muehlfeld, K., & Colombo, L. A. (2024). Critical thinking in the age of generative AI. Academy of Management Learning & Education, 23(3), 373-378.
• Lee, H. P., Sarkar, A., Tankelevitch, L., Drosos, I., Rintel, S., Banks, R., & Wilson, N. (2025, April). The impact of generative AI on critical thinking: Self-reported reductions in cognitive effort and confidence effects from a survey of knowledge workers. In Proceedings of the 2025 CHI Conference on Human Factors in Computing Systems (pp. 1-22).
• Suriano, R., Plebe, A., Acciai, A., & Fabio, R. A. (2025). Student interaction with ChatGPT can promote complex critical thinking skills. Learning and Instruction, 95, 102011.