Tutte le notizie

Il mio ‘psicopatico’ è un robot: l’intelligenza artificiale emerge come alternativa per i problemi di salute mentale | Tecnologia



Un’entità vuota di volto ma piena di buone intenzioni. Un oracolo per navigare tra le matasse della mente. Un compagno etereo che non si interrompe mai e trova sempre le parole giuste. Eternamente disponibile e incapace di giudicare. A portata di mano dopo aver scaricato a app e ad un prezzo molto conveniente, addirittura gratuito. Da quando sono emersi alla fine dell’ultimo decennio, robot terapeutici —robot virtuali programmati con intelligenza artificiale (AI) per scopi psicoterapeutici—hanno guadagnato terreno nelle offerte per la salute mentale. Un’utopia diventata realtà o un terrificante presente distopico, a seconda di come lo si guardi.

Due grandi domande circondano tutto ciò psicobot (per averli riferiti con un neologismo appropriato alla nostra cultura). Uno riguarda la sua capacità di adattarsi – con risultati imprevedibili – alle idiosincrasie di ogni persona attraverso la cosiddetta AI generativa. L’altro apre la porta a domande ancora più importanti: è legittimo per loro emulare le qualità umane? “Creare intimità emotiva facendo sì che una macchina simuli l’empatia o la compassione significa manipolare le persone”, stima Jodi Halpern, che dirige in videoconferenza un gruppo su etica e tecnologia all’Università di Berkeley (USA). Una terza domanda aleggia sul dibattito: questi gadget vaporosi saranno un giorno in grado di sostituire gli psicologi in carne ed ossa?

In un amalgama di servizi scarsamente regolamentati, oggi coesistono start-up specializzato in salute mentale con chatbot generalisti che, come fedeli consiglieri o amici impenitenti, sono tanto interessati al tuo ultimo appuntamento quanto si congratulano con te per aver superato un esame. E, del resto, consigliano anche come gestire un picco di ansia o uscire da un ciclo depressivo.

Wysa appartiene alla prima categoria, in cui la macchina tipicamente istruisce l’utente nei dettagli della terapia cognitivo-comportamentale (CBT), l’approccio più popolare nelle cliniche psicologiche. Testato da questo giornale, il bot di Wysa – il cui utilizzo è già raccomandato dal sistema sanitario pubblico del Regno Unito – esorta a riformulare le distorsioni cognitive o a gestire gli stati afflittivi in ​​prospettiva. Il suo tono sembra asettico e la sua dinamica terapeutica certamente rigida. “Non appena qualcuno esce da ciò che sente o dai pensieri che ha, il bot “È progettato per tornare in linea con gli strumenti clinici che vi offriamo”, spiega John Tench, direttore globale dell’azienda.

L’esperienza con Pi è molto diversa, una delle tante bot relazionali o conversazionali – i più noti sono Replika e Character.ai – che utilizzano modelli linguistici estesi (pilastro dell’intelligenza artificiale generativa) per dar luogo a interazioni apparentemente molto reali. Cioè, molto umano. Durante la prova, il bot Ha ipotizzato, ad esempio, che la presunta mancanza di autostima potrebbe essere dovuta a relazioni malsane madre-figlio. E lui insisteva, con abbondanza di iperboliche espressioni di affetto nel più puro stile anglosassone, di essere felice di dare sostegno ogni volta che se ne aveva bisogno.

In questa divisione tra botti guida attraverso i dettagli della CBT sotto a fallo da soloe altri che improvvisano una sorta di trattamento psicologico senza limiti, i confini non sembrano affatto chiari. Né nel funzionamento (livello di IA generativa utilizzata) né, soprattutto, nelle pretese che lanciano per attirare gli utenti. Halpern dice che Pi, Replika e simili se ne lavano le mani con la scusa che “non sono aziende esperte in salute mentale”, anche se, a quanto sa, “stanno concentrando la loro pubblicità su persone che sui social network confessano a soffrire di depressione o ansia grave”.

Intanto, tra le aziende che esplicitano la propria vocazione psicoterapeutica, ci sono zone grigie e mezze verità. “Alcuni dichiarano apertamente di non voler sostituire uno psicologo umano, ma altri amplificano le proprie capacità e minimizzano i propri limiti”, considera Jean-Christophe Bélisle-Pipon, ricercatore di etica e intelligenza artificiale presso la Simon Fraser University (Canada) e il passato anno pubblicato in Frontiere un articolo dal titolo chiaro: Il tuo psicobot non è il tuo psicologo.

Sul suo sito web, Youper —other avvio che offre servizi simili a Wysa—si definisce a psicobot empatico.” E Woebot (un concorrente di entrambi in un mercato in crescita) ha fatto appello a questa caratteristica intrinsecamente umana finché, l’anno scorso, Halpern e altre voci hanno denunciato l’uso tortuoso del termine nei principali media come Il Washington Post. Bélisle-Pipon sostiene che questo tipo di falsità – tollerate, per la loro relativa innocuità, negli spazi pubblicitari di altre macchine: automobili che ci rendono liberi, cellulari che custodiscono il segreto della felicità – non potranno mai trovare posto nella promozione della salute mentale. rimedi. “Non solo rischia di creare gravi incomprensioni tra persone vulnerabili, ma manca di rispetto alla complessità e alla professionalità della vera psicoterapia, con le sue molteplici sfumature dipendenti dal contesto e la sua natura profondamente relazionale”.

Meglio di niente?

Miguel Bellosta Batalla, psicoanalista di Huesca che ha studiato a fondo l’importanza della relazione professionista-paziente in psicoterapia, confessa di essere “spaventato” da questi servizi che “disumanizzano un incontro sincero”. E ricordiamo che la ricerca ha ampiamente dimostrato che il fattore che più influenza il successo di un trattamento psicologico è, proprio, “il legame terapeutico” tra due esseri che condividono alcuni “presupposti come la paura della morte, la ricerca di significato”. la responsabilità che la libertà implica”.

Anche in un approccio come la CBT (in linea di principio più freddo o soggetto a linee guida consolidate rispetto alla psicoanalisi o alle terapie umanistiche), Bellosta Batalla stima che in una seduta “si verificano sempre eventi imprevisti che, ben gestiti, possono avere un impatto fondamentale per il paziente”. . E Bélisle-Pipon menziona qualità che, a suo avviso, una macchina non potrà mai possedere: “la sottigliezza nel leggere il linguaggio non verbale, la capacità di comprendere le esperienze soggettive o l’intuizione morale”.

Nonostante la sua giovinezza, esistono già studi attendibili che hanno cercato di misurarne l’efficacia psicobot. Una meta-analisi pubblicata nel 2023 in Natura esaminato i risultati di 15 indagini effettuate con bot che danno libero sfogo all’intelligenza artificiale generativa e con quelli che offrono risposte più prevedibili. I suoi autori hanno messo in guardia sulla difficoltà di analizzare un’offerta così eterogenea e in continua evoluzione, pur concludendo che, in generale, questo tipo di strumenti attenuano i disagi psicologici specifici senza migliorare significativamente il benessere degli utenti. Danno cioè sollievo a breve termine ma, a quanto pare, non gettano basi solide per una mente più sana. Un’altra meta-analisi è apparsa lo scorso agosto nel ScienceDirect —anche lui molto cauto nelle sue conclusioni— ha rilevato un certo effetto positivo nelle persone con sintomi depressivi e uno appena percettibile nei soggetti che soffrono di disturbi d’ansia.

Con milioni di individui che non possono accedere – per vari motivi, il principale dei quali è economico – ad uno psicologo, un altro dubbio attanaglia chi vede vacillare la propria salute mentale in assenza di valide alternative di utilizzo (vedi quelle umane): sono robot terapeutici meglio di niente? Il direttore globale di Wysa chiarisce che, senza aspirare a “sostituire la psicoterapia tra persone”, la sua azienda può aiutare “le persone a comprendere ed elaborare ciò che sentono in uno spazio senza stigma e totalmente anonimo”. Bélisle-Pipon sembra una domanda pertinente, anche se un po’ complicata e con una risposta sfuggente. Innanzitutto perché, in molti casi, ricorrendo all’a psicobot potrebbe “peggiorare i sintomi quando il consiglio dato è inappropriato”. E in secondo luogo perché, se permettessimo alle macchine di vagare liberamente in un settore così delicato, apriremmo la porta a un orizzonte di salute mentale a due velocità” che normalizzi servizi di bassa qualità, invece di premere per l’accesso alla “vera psicoterapia è sempre più più equo”. Professionisti accreditati per chi può pagarli e voci diffuse senza cuore per il resto.



source

Leave a Response

Luca

Luca

Luca
Salve, mi chiamo Luca e sono l'autore di questo sito con utili consigli di cucina. Sono sempre stato affascinato dalla cucina e dagli esperimenti culinari. Grazie a molti anni di pratica e all'apprendimento di diverse tecniche culinarie, ho acquisito molta esperienza nel cucinare diversi piatti.