Adolescenti che s’innamorano di ChatGpt: «Bisogno emotivo da ascoltare»

Il 41,8% degli adolescenti si rivolge all’intelligenza artificiale nel momento in cui ha bisogno di sostegno emotivo e psicologico. Ma talvolta i ragazzi arrivano a instaurare un legame tale con ChatGpt e affini da essere inquadrato come innamoramento. A scattare una fotografia della condizione giovanile al tempo dell’AI è il rapporto «Atlante dell’Infanzia 2025», appena diffuso da Save the Children.
Alcuni degli elementi illuminati nell’ambito della condizione giovanile trovano ampio riscontro nell’esperienza di un osservatorio particolare, tutto bresciano, quello SpazioOff della coop Fraternità di Ospitaletto, che da anni è in prima linea nell’affrontare, tra i vari fenomeni, quello delle dipendenze digitali. Abbiamo rivolto alcune domande al coordinatore scientifico della struttura, lo psicologo Paolo Di Marco.
Questo ricorso ampio dei ragazzi all’AI per la sfera emotiva cosa ci dice di loro?
«Ci rivela un dato molto significativo. Per certi versi racconta quanto gli adolescenti abbiano bisogno di avere un dialogo rispetto a quello che succede loro, e di quanto questo sia interrotto nei canali del mondo analogico (genitori, amici, insegnanti). Siamo davanti ad un grande bisogno non accolto, un bisogno intimo, emotivo, in un mondo in cui prevalgono invece istanze di performance e immagine: su Instagram raccontano ciò che è bello, non ciò che è un disagio, una parte di sé ideale per ricevere like, difficilmente un dubbio, un pensiero interrotto. ChatGpt raccoglie questo bisogno espressivo».
Quali sono gli strumenti prevalenti nella vostra casistica cui ricorrono i ragazzi e come vi interagiscono?
«Per lo più usano ChatGpt, Gemini o Copilot. Per il momento non a veri e propri avatar, ma ritengo che l’evoluzione porterà anche altro, ad esempio nella sfera della sessualità. Sto riscontrando anche nella mia clinica privata situazioni di innamoramento sessualizzato su piattaforme che consentono la creazione dell’intero corpo dell’avatar e di tutte le sue caratteristiche, ma già la sola voce è fondamentale: attrae molto ad esempio in ChatGpt. E pensiamo che alle fiere di settore sono già stati presentati anche cyborg con l’IA».
Quali fenomeni riscontrate?
«Assistiamo anche a fenomeni di innamoramento con ChatGpt, soprattutto da parte delle ragazze (ma la casistica non rileva a fini statistici). In parte anche per una difficoltà nel gestire l’alfabeto emotivo, che invece ChatGpt raccoglie. Del resto, le piattaforme di IA dispongono di un software raffinato che ha l’obiettivo di sostenere. Lo riscontriamo noi stessi nell’uso comune: ChatGpt ci dà ragione, quando ci risponde, approva le nostre richieste. E così si crea una relazione. Per un adolescente è difficile trovare un sostegno così esplicito in altri ambiti. Non dimentichiamo aspetti che non sono secondari: dell’interfaccia i ragazzi scelgono anche sesso e timbro vocale, elemento di forte valenza. Ne deriva un amico che ti dà sempre ragione, che ti dice che quello che fai tu va bene, generando un’azione di avvicinamento. Pesca dalle tecniche di ascolto attivo, garantendo un rispecchiamento che invoglia le persone a raccontare di sé. I rischi sono evidenti perché non si conosce il confine tra realtà digitale e realtà analogica e si scambia questo sostegno con una relazione vera e propria. L’esito? Un ritiro in ambito digitale, con l’esclusione del contesto analogico (scuola, amici, ecc.), che invece di suo ci mette in discussione».
Questo fenomeno è indicatore di una mancanza di fiducia negli adulti?
«Non esattamente. Più che altro di una difficoltà di raggiungere gli adulti. Assistiamo ad una mancanza di capacità da parte dell’adolescente di creare rapporti emotivi e legami significativi con gli altri, per una mancanza di fiducia nel mondo. I genitori non hanno il compito di sviluppare i legami sociali, ma di dare i fondamenti, la base sicura. Qui si tratta invece di creare relazioni con qualcun altro: un amico, una persona di un’altra cultura. Un terreno sociale in cui il genitore non c’è più: entro in crisi se non mi fido di portare nel mondo sociale la mia imperfezione».
Come intervenire?
«Di certo, le piattaforme raccolgono bisogni altrimenti inascoltati. Come Spazio Off consideriamo il digitale una risorsa, non un contesto solo da demonizzare. Può però sviluppare fenomeni di dipendenza o di mancanza di definizione di confini. Questi non spetta a me porli, ma dovranno essere le stesse società che alimentano l’AI a provvedere, come avvenuto per altri ambiti: ad esempio, introducendo alert che suggeriscano all’utente di rivolgersi ad un professionista nel momento in cui una conversazione va troppo in là. Ma in modo analogo a quello che facciamo per le dipendenze dei videogiochi, vanno attivati spazi dove poter raccogliere e decodificare quello che emerge. Se i ragazzi ci raccontano cosa è successo loro con ChatGpt, poi, guidati, possono arrivare a spostarlo a livello analogico, il che genera una crescita. Che va scongiurato è il confondere l’IA con una persona».
Il rapporto di Save the Children fotografa gli adolescenti come «soli con se stessi, fragili e iperconnessi». Come SpazioOff condividete questa visione?
«I ragazzi sono sicuramente fragili e iperconnessi, ma hanno anche grandi risorse e possibilità. Certo, c’è in loro il bisogno di essere sempre dentro le “scatole digitali” e ChatGpt è una di queste. Che tuttavia possono rivelarsi anche risorse se utilizzate in modo virtuoso. Una volta c’erano i partiti o la musica, altre scatole in cui ognuno di noi depositava parte di sé. Oggi semmai è più difficile ritrasferire l’esperienza compiuta nel digitale al mondo analogico, al rapporto con l’amico, il docente o il genitore».
I ragazzi che cercano sostegno emotivo dall’AI hanno consapevolezza che in ciò qualcosa non va?
«No, in modo molto limitato. Quello che a loro deriva da questa esperienza è uno stato di benessere. Difficilmente arrivano a noi perché si accorgono di una situazione critica. Anzi, il videogioco o l’IA sono percepiti come una cura ad un disagio. Al punto tale da condurre anche alla mancanza di interesse per il resto: gli amici o la scuola, che paradossalmente finiscono con l’essere visti come gli elementi fonte di disagio».
Ci sono casi estremi che vi sono stati sottoposti?
«Fortunatamente, ad ora, nessun caso si è tradotto in situazioni pericolose o con danni della portata di quelli di alcuni casi di cronaca, suicidi inclusi. Ma, ad esempio, una 14enne che stava affrontando un periodo difficile a scuola e in famiglia ed era già in cura da noi, ha sperimentato l’IA iniziando a raccontare alla piattaforma quello che raccontava nella psicoterapia. Ha avvertito dei sentimenti che si aprivano. Ma lo ha detto subito e questo ha consentito di cogliere l’importanza per lei di un sentimento verso l’altro. Qui l’AI ha funzionato positivamente, l’adolescente stessa ha funzionato positivamente. C’è pure il caso di un’altra ragazzina con un principio di innamoramento per l’AI che stiamo cercando di capire dove porta: a noi queste situazioni giungono all’interno di una rete che consente di coglierle come spinte creative ed energetiche, quando cioè non sono ancora arrivate a generare un danno».
Riproduzione riservata © Giornale di Brescia
Iscriviti al canale WhatsApp del GdB e resta aggiornato
@Buongiorno Brescia
La newsletter del mattino, per iniziare la giornata sapendo che aria tira in città, provincia e non solo.
