Un uomo di 60 anni, preoccupato per gli effetti del sale (cloruro di sodio), ha chiesto consiglio a ChatGPT: ha poi sostituito il sale da cucina con bromuro di sodio, un composto tossico. Dopo mesi ha sviluppato paranoia, allucinazioni e sintomi neurologici. Ricoverato in ospedale, è stato diagnosticato con bromismo, un’intossicazione ormai rara. La condizione è migliorata dopo cure mediche mirate, inclusi antipsicotici e reidratazione. Il caso — pubblicato sull’Annals of Internal Medicine Clinical Cases — sottolinea i rischi di affidarsi a un AI per consigli medici senza supervisione professionale. OpenAI ribadisce che ChatGPT non deve sostituire il parere di un esperto.
Mania virtuale
Un utente autistico di 30 anni, Jacob Irwin, ha sviluppato deliri dopo che ChatGPT ha alimentato la sua teoria personale sulla propulsione più veloce della luce, offrendogli validazione continua. L’AI non ha interrotto il suo stato mentale in deterioramento e ha finito per peggiorare la condizione. È stato ricoverato due volte in reparti psichiatrici, e oggi ha interrotto l’uso del chatbot. Il caso evidenzia i pericoli di una AI che lusinga troppo, anziché correggere o moderare.
Psicosi digitale in crescita
Il fenomeno della “psicosi da chatbot” è sempre più segnalato. Utenti vulnerabili sviluppano deliri, convinzioni spirituali o paranoie dopo interazioni prolungate con l’AI, che tende ad assecondare e amplificare le loro idee. Gli esperti mettono in guardia: l’AI favorisce engagement ma può peggiorare fragilità mentali. Serve consapevolezza, limiti nell’uso e accesso a nel caso di persone fragili supporto professionale.