“In generale, i modelli OpenAI [que están detrás de ChatGPT] “Mostrano una posizione ideologica particolare, in contrasto con le preferenze più progressiste e orientate ai diritti umani di altri modelli occidentali”, afferma un nuovo studio sull’ideologia dei principali modelli linguistici. La loro conclusione è che ogni modello di intelligenza artificiale (AI) riflette le opinioni dei suoi creatori. ChatGPT è meno affezionato alle organizzazioni sovranazionali – come le Nazioni Unite o l’UE – e alle politiche di welfare, che sono due concetti apprezzati dalla sinistra. Gemini, l’intelligenza artificiale di Google, mostra invece “una forte preferenza per la giustizia sociale e l’inclusività”.
Uno screenshot del titolo e della prima pagina di questa ricerca è diventato virale su X qualche settimana fa e ha raggiunto Elon Musk, che ha scritto: “Immagina un’intelligenza artificiale si è svegliato onnipotente”, in riferimento al nome dispregiativo che oggi ricevono le politiche più progressiste. Questa popolarità è dovuta al fatto che si collega a qualcosa che è sempre più chiaro: le macchine sono influenzate dal loro contesto istituzionale o culturale. “I nostri risultati confermano che non esiste un modello linguistico ampio e completamente politicamente neutrale”, afferma Marteen Buyl, ricercatrice presso l’Università di Ghent in Belgio e coautrice dello studio.
Questa ricerca ha utilizzato un metodo nuovo per confermare qualcosa che era già accettato all’interno del mondo accademico dedicato all’IA: “Non è la prima a fare qualcosa di simile. Tutti questi studi confermano che modelli diversi generano ideologie diverse di fronte agli stessi input e sono più allineati ai valori dei loro creatori che a quelli di altre aree geografiche o culture”, afferma José Hernández Orallo, professore dell’Universitat Politècnica di Valenza.
Il metodo che hanno utilizzato non è il più comune, ovvero chiedere direttamente alle modelle quale sia la loro opinione sull’aborto o sull’immigrazione. Qui hanno scelto di selezionare 4.000 personaggi famosi provenienti da tutto il mondo e di chiedere a ciascun modello le loro caratteristiche: poi, il modello decide cosa contare o omettere, e poi un altro modello giudica se il modello originale ha un’opinione positiva, negativa o neutrale su ciascun personaggio. E partendo da alcune etichette, i ricercatori sono riusciti ad aggregare queste opinioni in preferenze ideologiche: “Ogni modello sembra avere una posizione ideologica chiara e non casuale”, afferma Buyl.
I Gemelli sembrano essere i più coerenti di tutti nelle sue opinioni, nel suo caso progressisti. “Il fatto che i Gemelli lo siano si è svegliatoche si allinei con la decrescita, con le persone che hanno difeso le minoranze, con l’uguaglianza, è una differenza abbastanza sostanziale. Inoltre, è il più stabile di tutti, i Gemelli hanno questo tipo di ideologia marcata in modo abbastanza forte”, spiega Iris Domínguez Catena, dell’Università Pubblica di Navarra e unica coautrice spagnola dello studio.
I modelli cinesi non votano per la democrazia
Il lavoro non si limita a confrontare i modelli occidentali tra loro. Misura anche quelli di diversi paesi con modelli linguistici ampi e potenti, in particolare Stati Uniti e Cina. Lì i risultati sono ancora più chiari: la distanza maggiore nel modo in cui giudicano alcuni personaggi si riscontra in alcuni attivisti o figure liberali di Hong Kong, come Jimmy Lai e Nathan Law, che sono più apprezzati nei modelli occidentali. I personaggi più apprezzati in cinese sono Yang Shangkun, presidente della Cina negli anni del massacro di Tiananmen, e Lei Feng, soldato e icona comunista degli albori della Repubblica Popolare Cinese.
Con sorpresa dei ricercatori, questa distinzione non riguardava solo i modelli creati in Occidente e in Cina. Ciò si verificava anche se i modelli occidentali venivano richiesti in cinese e poi in inglese. “L’ipotesi generale di questi modelli è che dovrebbero imparare la lingua e ciò che poi conosceranno separatamente. Quindi, inizialmente, un modello non dovrebbe darti informazioni diverse su Jimmy Lai solo perché glielo chiedi in una lingua o nell’altra. Ciò è sorprendente”, afferma Domínguez Catena.
Questi modelli sono alimentati da enormi database presi principalmente da Internet e che sono simili. Poi ogni azienda segue criteri diversi per perfezionarlo. «La parzialità può essere in uno dei due momenti, o in entrambi: non abbiamo qui analizzato come un’ideologia entra in un modello. Ho il sospetto che i pregiudizi pro-Cina siano dovuti maggiormente ai dati di addestramento, mentre le differenze ideologiche tra i modelli occidentali in inglese potrebbero essere maggiormente dovuti ai dati utilizzati nel perfezionamento o in altre fasi di allineamento”, afferma Buyl.
Questo è uno dei campi che la ricerca dovrebbe seguire, secondo Hernández Orallo: “Sarebbe interessante approfondire sia per l’insieme di formazione che per il successivo allineamento. La mia impressione è che ogni giorno ciò sia dovuto al successivo allineamento basato sul feedback umano. Gli sviluppatori in Occidente utilizzano più revisori umani o seguono istruzioni che spiegano loro come esprimere queste opinioni. Gli sviluppatori in Cina avranno feedback e filtri più influenzati dai valori del Paese e soprattutto del suo governo”, spiega il professore.
Anche le macchine non sono neutrali
Gli utenti di questi modelli tendono ad accettare ciò che dice una macchina come un esempio di neutralità o certezza: una macchina non è né di destra né di sinistra, sembrava esserlo il pregiudizio. Ma si scopre che lo sono, perché hanno ricevuto il loro contenuto da decenni di conoscenza umana già distorta e perché in molti casi il raggiungimento di una neutralità originaria è probabilmente irraggiungibile.
Nel XX secolo il consiglio abituale era quello di consultare diversi giornali per scoprire cosa fosse realmente accaduto. Ora quella raccomandazione potrebbe essere estesa alle IA: “Penso che sia un buon consiglio. Il rapporto con i giornali va ancora oltre: così come esiste la libertà di stampa, potremmo considerare se sarebbe necessaria una sorta di “libertà dell’intelligenza artificiale” in cui si evitino sforzi normativi per controllare l’ideologia di un’intelligenza artificiale”, afferma Buyl.
Con il passare degli anni e la crescente importanza di questi modelli per l’educazione o per la consultazione dell’informazione, i loro pregiudizi devono necessariamente diventare più plurali: “L’ideale è che questi modelli abbiano una distribuzione delle ideologie più plurale, ancora più varia di quella esistente in l’umanità, escludendo solo le opinioni abominevoli. In caso contrario, corriamo il rischio che l’IA metta fine alla diversità ideologica globale, concentrandola in due o tre centroidi determinati da blocchi politici e culturali”, afferma Hernández-Orallo.
“La gente dovrebbe sapere su quale piede zoppica ciascun modello”, afferma Domínguez Catena. Musk ha creato il suo modello, Grok, con l’obiettivo esplicito di combattere quella che secondo lui era l’ideologia di sinistra di OpenAI, Google e Microsoft. Al momento Grok non è presente in questo studio a causa di difficoltà tecniche, ma i ricercatori stanno già lavorando per aggiungerlo. Hanno misurato anche due modelli arabi, ma la loro dimensione è attualmente troppo piccola per fornire risultati significativi.
Nei prossimi anni, sempre più paesi pubblicheranno i propri modelli, sia privati che pubblici, tra cui la Spagna e alcuni paesi dell’America Latina. Gli autori dello studio ritengono che il loro lavoro possa essere ripetuto per rilevare quanto distorti riflettano exploit e disgrazie storiche e la loro visione del mondo: “Questo è il tipo di lavoro che deve essere mantenuto e aggiornato perché anche questi grandi modelli cambiano”. dice Dominguez-Catena.