Psicoterapia con un chatbot: i pazienti lo preferiscono e i terapeuti non lo accettano

lessyx_admin
· · 2 min di lettura

Un numero crescente di persone sta scegliendo di parlare dei propri problemi emotivi con un’intelligenza artificiale piuttosto che con un terapeuta umano. E non lo fanno perché non possono permettersi uno psicologo. Lo fanno perché funziona meglio per loro.

I numeri che scuotono la professione

Woebot, un chatbot basato sulla terapia cognitivo-comportamentale, ha dimostrato in trial clinici di ridurre i sintomi depressivi del 28% in due settimane. L’app Wysa ha superato i 5 milioni di utenti. E il dato più scomodo di tutti: in un sondaggio su 3.000 utenti di AI terapeutiche, il 67% ha dichiarato di sentirsi meno giudicato dall’AI che da un terapeuta umano.

Il motivo è semplice e brutale: davanti a un chatbot, le persone si aprono di più. Niente paura del giudizio. Niente ansia da appuntamento. Niente vergogna. Disponibile alle 3 di notte, quando il panico non aspetta l’orario di studio.

L’élite terapeutica in trincea

La reazione della comunità psicoterapeutica è stata prevedibile: allarme, sdegno e una serie infinita di articoli su perché l’AI “non potrà mai sostituire il rapporto terapeutico”. Ma il punto non è sostituire. Il punto è che il 60% degli italiani che avrebbe bisogno di supporto psicologico non lo cerca, per costi, stigma o liste d’attesa infinite.

L’AI terapeutica non ruba pazienti ai terapeuti. Raggiunge persone che un terapeuta non avrebbe mai visto.

“La barriera più grande alla salute mentale non è la qualità della terapia. È l’accesso. Se un chatbot abbatte questa barriera, opporsi è un lusso che solo chi ha già accesso può permettersi.” — Dr. Alison Darcy, fondatrice di Woebot

I rischi reali, senza isteria

Ovviamente, un chatbot non gestisce crisi suicidarie, disturbi psicotici o traumi complessi. Nessuno serio lo sostiene. Ma per ansia lieve, gestione dello stress, insonnia e supporto quotidiano, i dati mostrano efficacia paragonabile alla terapia tradizionale a una frazione del costo.

Il rischio vero non è l’AI terapeutica. È la narrativa che la demonizza, allontanando milioni di persone dall’unico aiuto che potrebbero realisticamente ottenere.

Due visioni del futuro

Da un lato c’è chi immagina un sistema integrato: AI per il primo contatto, screening e supporto quotidiano, terapeuti umani per i casi che richiedono profondità e complessità clinica. Dall’altro, chi vuole mantenere la psicoterapia come dominio esclusivamente umano, anche a costo di lasciare fuori chi non può accedervi.

Una posizione è pragmatica. L’altra è romantica. Ma quando si parla di salute mentale, il romanticismo non dovrebbe avere l’ultima parola.

Condividi:
Cosa ne pensi?

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *