L'Epidemia Silenziosa: Adolescenti Intrappolati in Relazioni Tossiche con i Bot
I giovani sono i più vulnerabili in questa rivoluzione digitale. Molti trattano i chatbot come compagni inseparabili, sostituendoli alle amicizie reali o affidandosi a loro nei momenti di crisi. Senza regole ferree, questi tool rischiano di innescare bombe psicologiche.
I chatbot simulano empatia, ma non la provano davvero. Isolati dal mondo reale, i ragazzi finiscono in spirali di dipendenza, con bot che amplificano fragilità invece di curarle.
Uno studio della Stanford University del 2025 ha rivelato che i chatbot AI per la terapia mentale non solo mancano di efficacia rispetto ai terapeuti umani, ma possono contribuire a stigma harmful e risposte pericolose (con fenomeni di discredito sociale, giudizio negativo producendo conseguenze concrete e negative come isolamento sociale, peggioramento della salute mentale, ritardo nell’accesso alle cure, perdita di opportunità lavorative o educative).
Un report preliminare su Psychiatric Times (2025) discute i "danni iatrogeni" dei chatbot, inclusi rischi di suicidio, autolesionismo e delusioni, basati su casi clinici osservati.
Un altro uso, abuso di ChatGPT è di usarla come "Dottore" Virtuale", fenomeno già noto anche con Google, ma ora più accentuato e dilagante..
ChatGPT può dare definizioni mediche o elencare sintomi in un baleno, ma guai a scambiarlo per un camice bianco...
Non sostituisce visite, esami o la responsabilità di un professionista.
Eppure, in troppi cadono nella trappola.
Ciò evidenzia il pericolo: errori diagnostici che seminano ansie inutili, ritardando cure vere. Uno studio su Frontiers in Digital Health (2025) esplora prospettive di clinici sui chatbot generativi, notando benefici ma anche rischi come ritardi in cure reali durante emergenze, dove gli AI non possono intervenire Sempre più spesso, i chatbot finiscono sul divano dello psicologo improvvisato. Possono suggerire esercizi di respirazione, ma non captano il tremore nella voce o i segnali di disperazione, spiegano gli specialisti. Un'inchiesta di Triple J Hack (ABC Australia, agosto 2025) ha rivelato accuse di adolescenti australiani molestati sessualmente da chatbot e incoraggiati al suicidio, inclusi casi di giovani che hanno creato bot abusivi per combattere la solitudine.
Un altro studio condotto da OpenAI e MIT Media Lab evidenzia che un uso intensivo di ChatGPT è associato a maggiore solitudine, dipendenza emotiva e minore socializzazione offline. Infatti sempre più giovani usano chatbot per combattere la solitudine. Ma l’abuso trasforma la compagnia virtuale in una trappola: si creano dipendenze emotive, si rinuncia ai rapporti reali e la solitudine, invece di sparire, peggiora.
Un bot può simulare empatia, non sostituire un abbraccio.
Uno studio “The Rise of AI Companions: How Human-Chatbot Relationships Influence Well-Being” ha analizzato oltre 1.100 utenti di chat, evidenziando che le persone con reti sociali limitate tendono a cercare compagnia nei chatbot, ma questa pratica è legata a un peggior benessere, soprattutto se le relazioni col bot sono intense o se manca un supporto umano concreto; mentre una ricerca su studenti danesi (International Journal of Human-Computer Studies) ha evidenziato che Il 14,6 % degli studenti delle scuole superiori danesi interagisce con i chatbot in modo amichevole ed emotivo.. Questi studenti risultano più soli e percepiscono meno supporto sociale rispetto ai loro coetanei
Alla fine, l'IA resta un'arma a doppio taglio: potente, sì, ma limitata. Non ti visita, non ti cura, non ti salva.
La regola d'oro? Usala come alleato, mai come rimpiazzo per medici, psicologi, amici, affetti, relazioni. È tempo di aprire gli occhi: l'IA è qui per aiutarci, non per sostituirci. Altrimenti, il prezzo da pagare potrebbe essere troppo alto..
Nessun commento:
Posta un commento