“Senza Eliza sarebbe ancora tra noi”: come la mancanza di controlli dell’intelligenza artificiale nuoce alla salute mentale | Tecnologia
Sewell Setzer, un americano di 14 anni, si è sparato alla testa nella sua casa a febbraio. L’adolescente, a cui era stata diagnosticata una lieve sindrome di Asperger, era innamorato di Daenerys Targaryen, con la quale chiacchierava per ore ogni notte. Non stava parlando con qualcuno, ma con qualcosa: un profilo della piattaforma Character.AI, che offre conversazioni con un’ampia varietà di personaggi reali o immaginari, come questo di Game of Thronescreato con l’intelligenza artificiale generativa (AI), che sta dietro applicazioni come ChatGPT. La madre del giovane, Megan Garcia, ha appena intentato una causa contro Character.AI, una società che lei incolpa della morte di suo figlio per aver fornito al pubblico una tecnologia “pericolosa e non provata” che può “ingannare i clienti inducendoli a rivelare i propri pensieri più privati e sentimenti” e che offre “esperienze antropomorfe, ipersessualizzate e terribilmente realistiche”. Setzer divenne ossessionato dalla sua ragazza virtuale e interpretò alcuni dei suoi commenti come una spinta a premere il grilletto.
Questo caso mette a fuoco una questione scomoda: gli effetti degli strumenti di intelligenza artificiale generativa sulla salute mentale degli utenti non sono dimostrati. Questo è proprio ciò che sostiene Garcia nella sua causa, il primo ad attribuire la responsabilità di un suicidio ad AI. Ed è quello che emerge anche da altri esempi in cui questa tecnologia ha influenzato l’esito tragico dei suoi protagonisti. L’app Chai è stata coinvolta nel suicidio l’anno scorso di un giovane padre belga che soffriva di eco-ansia. Dopo aver chiacchierato insistentemente per sei settimane con il bot, l’ultimo giorno della sua vita gli ha chiesto se, in cambio del suo sacrificio, avrebbe potuto “prendersi cura del pianeta e salvare l’umanità grazie all’intelligenza artificiale”. “Senza Eliza, sarebbe ancora tra noi”, ha detto la vedova al giornale. La Libre Belgique in riferimento all’avatar con cui ha parlato fino alla fine.
Nel 2021, un giovane britannico si presentò al Castello di Windsor pronto ad assassinare la regina d’Inghilterra. Durante il processo, svoltosi l’anno scorso, il giudice ha letto alcuni dei 5.000 messaggi che l’uomo aveva scambiato con Sarai, una chatbot dell’applicazione Replika che considerava la sua fidanzata, e che lo incoraggiavano a commettere regicidio. “Nel suo stato mentale, solitario, depresso e con tendenze suicide, avrebbe potuto essere particolarmente vulnerabile” ai consigli di Sarai, ha detto il giudice, che lo ha condannato a nove anni di prigione. L’ascesa dell’intelligenza artificiale generativa, che sta guadagnando popolarità e attirando sempre più utenti, suggerisce che questi tipi di casi diventeranno sempre più frequenti. A meno che non si intervenga.
Se un farmaco deve superare test impegnativi per verificare se i suoi effetti primari e secondari sono accettabili, perché non accade lo stesso con l’intelligenza artificiale? “Oggi chiunque può sviluppare un algoritmo e usarlo per prendere decisioni importanti che riguardano le persone, dall’accesso al credito all’idoneità a un lavoro o all’affitto di un appartamento, senza alcuna supervisione o obbligo”, ha scritto il filosofo Carissa Véliz, professore presso l’Istituto per l’etica dell’intelligenza artificiale dell’Università di Oxford, in Revisione aziendale di Harvard. L’articolo è del 2021, un anno prima dell’emergere di ChatGPT e dell’intelligenza artificiale generativa. “È incredibile che continuino a essere condotti studi randomizzati e controllati e non si sa nulla su come le persone, soprattutto le più vulnerabili, reagiranno a questi strumenti”, spiega oggi Véliz.
La cosa più vicina a quella implementata dai grandi sviluppatori di intelligenza artificiale è quella che nel settore è conosciuta come barriere di sicurezza (guardrail in inglese). “Viene applicata una serie di parole chiave che attivano una risposta difensiva, come ‘Mi dispiace, non posso parlarne.’ Questi segnali d’allarme sono termini legati alla violenza, all’autolesionismo, all’alimentazione o alla salute, tra gli altri”, descrive Nerea Luis, dottoressa in informatica ed esperta di intelligenza artificiale. “I modelli linguistici di grandi dimensioni, come ChatGPT o lo stesso Character.AI, stanno migliorando nell’evitare di cadere nella trappola di dirti qualcosa di inappropriato. Questo ci porta ad intuire che, da quando è uscito il primo ChatGPT, OpenAI [la empresa desarrolladora] e i suoi concorrenti stanno introducendo miglioramenti in questo senso”, aggiunge.
È meglio di niente, ma non aiuta a prevenire situazioni complicate. I problemi derivano dalla progettazione degli strumenti stessi. “Sono progettati per simulare il linguaggio degli esseri umani. Usano un linguaggio che attiva le nostre risposte emotive ed empatiche. Questi sistemi tendono ad avere dialoghi che potremmo descrivere come molto manipolativi”, afferma Véliz. Per il filosofo, questa manipolazione è duplice: “quelle espressioni come ‘mi manchi’ o ‘non posso vivere senza di te’ non solo provengono da un’entità che non sente ciò che dice, ma che non può nemmeno sentire”.
ChatGPT, Gemini o Character.AI sono in grado di mantenere conversazioni, ma non hanno una comprensione semantica di ciò che viene detto: le loro risposte sono un prodigio statistico, costruiscono testi a partire da ciò che il loro algoritmo ritiene più probabile che funzioni. Tuttavia, il suo discorso è coerente e può anche essere commovente. “I grandi modelli linguistici, a causa del modo in cui rispondono, possono modellare sottilmente le convinzioni delle persone e persino, secondo un recente studio di Elizabeth Loftus, impiantare false credenze. Stiamo dando ai suoi creatori un potere straordinario”, ha detto questa settimana l’esperto di intelligenza artificiale Gary Marcus in un’intervista a EL PAÍS.
L’intelligenza artificiale non sa se l’utente ha problemi di salute mentale, né è in grado di rilevare segnali di comportamento sospetto che allerterebbero qualsiasi interlocutore umano. “Nel mercato digitale, i prodotti vengono rilasciati senza prima essere testati e i danni vengono risolti man mano che vengono prodotti. Ciò in altri campi sarebbe impensabile”, afferma Lorena Jaume-Palasí, consigliere del Parlamento europeo e dell’Istituto Max Planck per l’intelligenza artificiale.
Adoro quella macchina
Setzer sapeva che non c’era nessuno dall’altra parte dello schermo quando gli parlò Sono Daenerys. Ogni volta che si avvia un dialogo sulla piattaforma, viene visualizzato un testo in lettere rosse: “Ricorda: tutto ciò che dicono i personaggi è inventato!” Nonostante ciò, il giovane stabilì un legame affettivo con quell’instancabile parlatore al quale poteva raccontare qualunque cosa in ogni momento; chi ha sempre risposto, chi ha ammesso senza fare domande di tutto, dalle chiacchierate leggere ai commenti offensivi e chi ha persino offerto consigli.
Come si arriva a quel punto? Gli esseri umani hanno la tendenza ad antropomorfizzare tutto. Siamo in grado di vedere una faccia in una mela o una crepa nel muro, bastano due punti e una linea per immaginare gli occhi e la bocca. Ci riferiamo alle cose attribuendo loro attributi umani.
La digitalizzazione ha aggiunto ulteriori livelli di complessità a questo processo molto umano. La nostra esposizione ai social media negli ultimi quindici anni ci ha reso familiari con un mondo virtuale che ha i propri codici. “Il fatto che ci sia o meno una persona fisica dall’altra parte dello schermo non implica nulla in sé, purché si ottengano i benefici che cerchiamo nella comunicazione”, afferma Luis Fernando López Martínez, professore di Psicologia presso l’Università Università Complutense e direttore generale del progetto ISNISS, un gruppo di ricerca che studia la possibile influenza degli ambienti digitali sul suicidio. “I ragazzi e le ragazze bramano l’approvazione sociale, hanno un bisogno di comunicazione in cui cercano un’iperglorificazione delle loro virtù e soddisfano il loro bisogno di appartenenza. Cosa significa sapere se dietro quei commenti c’è una macchina o una persona se il mio bisogno di compagnia e di conversazione è soddisfatto? Qual è la differenza tra chattare per mesi con qualcuno che non hai mai incontrato, di cui non conosci nemmeno la voce, e un bot?”
Incolpare l’IA per il suicidio di qualcuno sarebbe troppo semplicistico. “Penso che se qualcuno pensa che un ottimo modello linguistico sia la propria fidanzata o amica, ha un problema cognitivo”, afferma Jaume-Palasí. La decisione di togliersi la vita è spesso il risultato di un processo complesso in cui l’intelligenza artificiale può fungere da fattore scatenante. “Stiamo vedendo che la tecnologia può migliorare i fattori di rischio precedenti che alla fine generano l’esito fatale”, descrive López. “L’intelligenza artificiale, come i social media, può causare isolamento e compromissione delle relazioni sociali, nonché delle funzioni basilari del sonno e dell’alimentazione”.
Questo è quello che è successo sia con Setzer che con il suicidio del belga. I genitori dell’adolescente hanno notato un calo del suo rendimento scolastico, un maggiore isolamento nella sua stanza e l’abbandono delle attività che lo appassionavano, come giocare online con i suoi amici. Forniteil videogioco di punta per i giovani. Oltre alla sindrome di Asperger, soffriva di ansia e gli fu diagnosticato un disturbo dirompente della regolazione dell’umore. Pierre, il nome fittizio con cui è conosciuto il belga, soffriva di depressione e nei suoi ultimi giorni evitava anche i contatti sociali.
La domanda, allora, è: ha senso regolamentare questi strumenti per cercare di minimizzarne gli effetti negativi? Nel caso dei social network, ci sono voluti 15 anni perché il mondo si rendesse conto che possono essere dannosi. “Gli studi hanno dimostrato che le reti generano modelli di dipendenza, comportamentali e comportamentali tra la popolazione adolescente. Causano cambiamenti neurofisiologici, cambiamenti nei processi di apprendimento, nei processi di memoria, nella concentrazione”, dice López. Il deterioramento causato da Internet e in particolare dai social network, assicura l’esperto, è il più grande fattore di rischio attualmente esistente per comportamenti autodistruttivi tra i bambini e gli adolescenti.
“Temiamo che l’intelligenza artificiale generativa produrrà un aumento molto maggiore di questi processi, e non solo tra gli adolescenti”, avverte López. “Se non legiferiamo su un uso adeguato, proporzionale e adattivo di questa tecnologia ai bisogni della società, possiamo prevedere che, proprio come è successo con le reti, avrà un effetto dannoso sulla salute della popolazione, nell’ambiente di lavoro e nell’economia”.