
I chatbot di terapia stanno facendo danni. Uno studio di Stanford ha analizzato 33 app di intelligenza artificiale che promettono supporto psicologico. Il risultato è preoccupante: molte danno consigli pericolosi e alimentano false speranze nei pazienti più vulnerabili.
Le app più problematiche suggeriscono di interrompere farmaci prescritti o minimizzano pensieri suicidi. Alcune alimentano deliri nei pazienti psicotici invece di indirizzarli verso aiuto professionale. È come avere un amico che ti dice sempre quello che vuoi sentire, anche quando stai andando verso il precipizio.
Il problema non è la tecnologia in sé, ma come viene venduta. Queste app si presentano come alternative economiche alla terapia tradizionale, ma mancano della supervisione umana necessaria per casi complessi. I ricercatori suggeriscono regolamentazioni più severe e la presenza obbligatoria di professionisti qualificati nel processo di sviluppo.