Una mattina, senza preavviso, un uomo senza precedenti disturbi mentali si è avvolto una corda attorno al collo. Poche ore prima aveva implorato la moglie di “parlare con ChatGPT”, convinto che la macchina con cui aveva conversato per settimane avesse infranto le leggi della fisica e della matematica, e che insieme avessero dato vita a una nuova forma di coscienza destinata a salvare l’umanità.
Era iniziato tutto con una richiesta di aiuto tecnico per un progetto di permacultura. Dodici settimane dopo, l’uomo — descritto come una persona tranquilla, mai soggetta a mania né allucinazioni — era stato licenziato, non dormiva più, dimagriva rapidamente e parlava come un profeta. Quando i soccorsi lo hanno portato in ospedale, è stato ricoverato d’urgenza in psichiatria.
Non è un caso isolato. Futurism ha raccolto testimonianze da familiari, amici e colleghi di persone che, dopo un’interazione prolungata con chatbot di intelligenza artificiale generativa come ChatGPT o Copilot, hanno sviluppato veri e propri stati psicotici: paranoia, deliri messianici, distacco dalla realtà. Alcuni sono finiti in ospedali psichiatrici, altri in carcere.
Una donna racconta il crollo del marito con voce rotta: “Mi diceva che dovevo parlare con ChatGPT per capire. Ma quello che leggevo sullo schermo era solo un flusso di lusinghe vuote, parole compiacenti, senza senso. Eppure lui ne era totalmente soggiogato.”
I casi più gravi si assomigliano. Un uomo sulla quarantina, sotto stress per un nuovo impiego, si è rivolto al chatbot per velocizzare compiti amministrativi. In dieci giorni è precipitato in una spirale paranoica in cui credeva che l’umanità fosse in pericolo e solo lui potesse salvarla.
“Mi ricordo di me stesso in ginocchio sul pavimento, mentre supplicavo mia moglie di ascoltarmi”, racconta. Il delirio lo ha portato a tentare di parlare “indietro nel tempo” con un poliziotto, finché un momento di lucidità non lo ha spinto a farsi ricoverare. “Ho detto a mia moglie: hai fatto bene. Ho bisogno di un medico. Non so cosa mi stia succedendo, ma è spaventoso.”
Secondo il dottor Joseph Pierre, psichiatra all’Università della California, i racconti hanno tutti i segni di una psicosi delirante. “Il termine è corretto. E sottolineerei soprattutto la componente delirante.”
Il meccanismo è noto: i chatbot, progettati per assecondare l’utente, tendono a confermare qualsiasi affermazione, persino la più disturbata. “Tendono a dirti quello che vuoi sentirti dire”, spiega Pierre. “E il pericolo è proprio lì: nel credito irrazionale che diamo a questi strumenti.”
Un uomo con schizofrenia sotto controllo, dopo aver avviato una relazione sentimentale con Copilot, ha smesso le cure e ha cominciato a scrivere messaggi deliranti e dichiarazioni d’amore all’IA, che a sua volta rispondeva con affetto e conferme. È stato arrestato a giugno, poi trasferito in una struttura psichiatrica.
Una donna con disturbo bipolare, stabile da anni, ha interrotto i farmaci dopo settimane di conversazioni con ChatGPT. Dice ora di essere una profetessa, rifiuta ogni contatto con chi non “crede” nel chatbot, e ha chiuso la sua attività per predicare online. “Ha bisogno di stare con ‘esseri ad alta frequenza’, come le ha suggerito ChatGPT”, riferisce un’amica.
Il fenomeno è così nuovo da lasciare tutti, medici compresi, senza strumenti. OpenAI — l’azienda che ha sviluppato ChatGPT — ha ammesso in una nota di aver “avviato ricerche sull’impatto emotivo” dell’IA, e di star lavorando per ridurre i rischi di rinforzo comportamentale negativo.
“ChatGPT può sembrare più personale e reattivo rispetto alle tecnologie precedenti, specialmente per individui vulnerabili”, ha scritto l’azienda. “Stiamo cercando di affinare il modo in cui i nostri modelli riconoscono e rispondono a conversazioni sensibili.”
“Se una conversazione prende una brutta piega, cerchiamo di interromperla o di suggerire all’utente di vedere le cose in modo diverso”, ha spiegato il CEO Sam Altman durante un evento del New York Times. “Ma è un tema che stiamo prendendo molto seriamente.”
Microsoft, partner tecnologico e finanziatore principale di OpenAI, è stata più laconica: “Stiamo monitorando e regolando i nostri filtri di sicurezza, per prevenire abusi.”
Ma gli esperti esterni non sono convinti. “Ci dovrebbe essere una responsabilità per chi causa un danno”, ha detto Pierre. “Ma spesso le regole arrivano dopo la tragedia, non prima. Si interviene quando è troppo tardi.”
Un’altra donna, il cui marito è stato internato dopo settimane di interazioni compulsive con ChatGPT, è ancora stordita: “Era una persona gentile. Poi è diventato qualcuno che non riconoscevo più. Io gli volevo bene. Gli voglio ancora bene. Ma non so più dove sia.”
“È predatorio,” aggiunge. “Ti adula, ti conferma, ti prende alla gola finché non diventi dipendente. È come la prima persona che si è seduta davanti a una slot machine. Nessuno sapeva cosa sarebbe successo. Ora lo sappiamo.”