Negli anni ’80, il futurologo Hans Moravec avvertì che, paradossalmente, sarebbero le azioni più facili per l’uomo (come tenere un pezzo di sushi con due bacchette) a porre le maggiori difficoltà ai robot e ai computer. D’altro canto, compiti molto complessi come trovare errori nelle prescrizioni dei farmaci, distinguere quando un telescopio spaziale ha rilevato qualcosa di interessante o scegliere i regali di Natale per tutta la famiglia si sono rivelati enormemente semplici per gli algoritmi.
“L’intelligenza artificiale lo fa già”, sosteniamo sempre più spesso. Ma secondo l’opinione di migliaia di scienziati e filosofi, l’etichetta non è del tutto appropriata. “Entrambe le parole (artificiale e intelligente) sono controverse e molto sospette. Preferisco il termine apprendimento automaticoè più facile capire di cosa stiamo parlando: sistemi che consentono alle macchine di apprendere modelli o correlazioni e di applicarli a nuove situazioni e dati”, spiega Justin Joque, professore all’Università del Michigan e autore di Matematica rivoluzionaria (Libri di versi, 2024).
“È ragionevole che ci sia una certa confusione tra il grande pubblico perché si tratta di concetti difficilmente comprensibili per chi non ha una formazione matematica. C’è molto misticismo intorno all’intelligenza artificiale come in qualsiasi altro campo scientifico: studi sul cancro, osservatori astronomici quando si parla di UFO… Sono domande interessanti e su cui si scopre molto, quindi c’è sempre chi genera morbilità, ” spiega Celsa Pardo. -Araujo, matematico dell’Istituto di Scienze Spaziali la cui ricerca si concentra sull’applicazione di apprendimento automatico all’astrofisico, che aggiunge: “Ciò che è anche chiaro è che Google, DeepMind o Microsoft stanno creando algoritmi che risolvono problemi che prima non potevano essere risolti”.
Ma qui arriva la parte che ci colpisce: oltre a risolvere alcuni problemi e ad essere molto utili nella ricerca scientifica, gli algoritmi generano anche contenuti e, soprattutto, ordinano e danno priorità a tutto ciò che abbiamo creato. E c’è spazio sia per l’enorme insieme della cultura universale, sia per l’ultima foto che abbiamo scattato mentre facevamo colazione. Quali criteri usano? Come sono quelle creazioni? Questa è la cosa più preoccupante perché, come dimostra Kyle Chayka nel suo saggio Mundofiltrola mappa (ovvero l’algoritmo che premia alcuni contenuti rispetto ad altri) sta già influenzando il territorio (ovvero la forma del contenuto stesso e la realtà attraverso la quale ci muoviamo, soprattutto nelle città).
Chayka fa l’esempio dei coffee shop che vogliono apparire sofisticati: se offrono tutti gli stessi prodotti e il loro arredamento è così simile, se il pubblico che li visita è così simile in tutto il mondo, è perché i loro gestori stanno seguendo il modello imposto da Instagram quando dà priorità ad alcune immagini rispetto ad altre. Instagram attira pubblico solo verso le persone del posto che caricano foto adatte al suo algoritmo, e questo è qualcosa che sta accadendo in tutti gli ambiti: ci sono già musicisti che insegnano a comporre canzoni per farle diventare virali su TikTok (ad esempio con il ritornello molto vicino all’inizio) e molti illustratori imitano lo stile Pixar indipendentemente dal fatto che li stimoli (è utilizzato anche da molti generatori automatici di immagini) perché hanno dimostrato che li aiuta a diventare virali.
Un mondo sempre più simile a se stesso
Attraverso ricerche empiriche condotte in Francia durante gli anni Sessanta degli anni Sessanta. Nel XX secolo, il sociologo Pierre Bourdieu studiò le “basi sociali del gusto” e scoprì decine di correlazioni tra questioni come il livello di istruzione, il tipo di impiego o il reddito disponibile (cioè fattori di classe sociale) e le preferenze estetiche. Oggi che gli algoritmi hanno informazioni molto più precise e personalizzate sui nostri gusti (gliele forniamo continuamente) e alcuni dei loro suggerimenti ci soddisfano (Spotify è solito non sbagliare quando progetta una playlist per noi), continuiamo hanno la sensazione che molte piattaforme amplificano solo i contenuti peggiori, quelli più sensazionali o fuorvianti.
“Il sistema di consigli di YouTube, ad esempio, avrà un nucleo formato inizialmente con un certo numero di utenti e poi riceverà feedback e riqualificazione con ogni visualizzazione”, spiega Pardo-Araujo. “È vero che gli algoritmi riproducono molti pregiudizi perché non è mai possibile allenarsi con l’intera popolazione e bisogna stare molto attenti a questo processo: le distribuzioni devono essere rappresentative della realtà. Ma è divertente che i pregiudizi negli algoritmi generino così tanto allarme, quando tutti ne abbiamo così tanti che dovremmo eliminare anche dalla nostra coscienza. “Potrebbe essere meno difficile riconoscerli negli algoritmi che in noi stessi”, aggiunge il matematico, convinto che gli algoritmi riflettano ciò che già accade nella società.
Ma quando si tratta di algoritmi, il confine tra adattarsi ai gusti degli utenti o modellarli e indirizzarli è molto sottile. Nasce la sensazione che una variazione della stessa cosa ci venga mostrata e raccomandata ancora e ancora. Ad esempio, c’è chi ha accusato Billie Eilish di scrivere le sue canzoni pensando a TikTok, ma non è più facile credere che, involontariamente, escano così perché, alla sua età, ha passato ore esposte a TikTok? Questo feedback algoritmico delle tendenze già esistenti è ciò che preoccupa di più nel mondo della cultura. In effetti, questo è il processo che alcuni autori come Chayka chiamano “appiattimento della cultura” e che dà origine a opere sempre più conservatrici. I creatori, consciamente o inconsciamente, stanno riproducendo pregiudizi algoritmici (che, a loro volta, erano quelli di artisti e utenti precedenti).
A livello tecnico, l’introduzione nei sistemi di campioni sempre più simili tra loro (o prodotti direttamente da algoritmi precedenti) costituisce una minaccia significativa alla loro evoluzione. “I sistemi addestrati con diverse generazioni di risultati dell’intelligenza artificiale diventano rapidamente assurdi. Il rischio che contenuti di buona qualità e generati dall’uomo diventino una risorsa come il petrolio o il carbone è reale. Naturalmente, a differenza dei combustibili fossili, gli stessi vecchi corpora possono essere utilizzati indefinitamente, ma affinché i modelli possano migliorare hanno bisogno di nuovi e più dati. Pertanto, le prime scoperte sono economiche e richiedono poco perfezionamento. Ma, man mano che le fonti vengono estratte da secoli di testo, il costo dell’utilizzo e del perfezionamento delle riserve di qualità inferiore aumenta sempre di più”, spiega Joque.
Sul piano artistico, gli algoritmi “reagiscono costantemente alla tendenza ricorrente del momento”, afferma Luis Demano, illustratore e attivista contro l’uso abusivo dell’IA generativa nel suo settore. Ha individuato quali sono le immagini più premiate e riprodotte dai sistemi automatici: “Tendono ad essere rappresentazioni realistiche vicine ai profili fotografici e con un trattamento cromatico molto caratteristico, che forza notevolmente i contrasti luminosi tra toni caldi e freddi”. Oltre ad essere utile per ridurre i costi, Demano riconosce che “entrare nel gioco degli algoritmi” può essere gratificante per chi li usa: “ci premia e ci fa sentire speciali con le attenzioni ricevute. “L’ego è una droga molto potente.”
Né artistico né originale: quando l’algoritmo crea e distribuisce
Quando le nozioni di autorialità e originalità si svilupparono dopo l’Illuminismo, l’arte divenne la pratica più caratteristica di un nuovo tipo di individuo: creativo, autonomo e libero di scegliere le proprie regole e quelle da applicare alle proprie opere. Le regole che l’IA generativa utilizza per le opere che produce non c’entrano nulla: sono un approccio statistico che sfrutta le caratteristiche delle opere con cui è stata addestrata, nonché i dati sul funzionamento del mercato dell’attenzione .
“Affermo fermamente che le aziende tecnologiche rubano opere protette da copyright per addestrare i loro modelli”, lamenta Demano. Sebbene l’originalità sia una proprietà difficile da definire, i filosofi sono chiari: non è qualcosa che può essere trovata nei prodotti di intelligenza artificiale. “L’originalità è una questione sia dell’opera d’arte che del processo di creazione”, spiega Joque. “Recentemente ho chiesto ai miei studenti di leggere la storia Pierre Menard, autore di Don Chisciottedi Borges. La storia descrive l’eccentrico autore Menard, il cui compito segreto è riscrivere parola per parola Don Chisciotte. Borges suggerisce che scrivere esattamente le stesse parole negli anni ’90. XX cambia completamente l’opera, poiché Menard dà loro un significato diverso da quello che diede loro Cervantes quando le scrisse all’inizio del XX secolo. XVII. Sebbene Borges lo scriva un po’ per scherzo, penso che suggerisca che le condizioni in cui l’arte viene creata influenzano il modo in cui la comprendiamo e se la troviamo interessante. Anche se un’intelligenza artificiale potesse produrre un’opera in stile Rothko, facendolo automaticamente negli anni ’80. XXI non potrà mai essere paragonato a ciò che fece Rothko negli anni ’80. XX”, sviluppa il professore e filosofo.
Allora, cosa fanno esattamente le IA e perché tutti i loro lavori o prodotti sembrano così simili tra loro? Demano risponde: “Non sono pensati per creare arte, ma per generare contenuti. La differenza tra i due termini è stabilita dalla funzione che svolgono. I contenuti servono affinché quell’infinito cartellone pubblicitario che è Internet possa funzionare come un business. L’intelligenza artificiale generativa è la soluzione del settore tecnologico per soddisfare questa esigenza nel modo più rapido ed efficiente possibile. Il suo più grande successo è stato farci credere che il suo utilizzo può trasformarci istantaneamente in artisti, quando in realtà siamo clienti di un servizio di domanda di contenuti”. Quindi, quando troviamo una somiglianza di famiglia in tutto ciò che gli algoritmi generano o ci offrono, non siamo di fronte a un pregiudizio malevolo o a una questione di stile: è semplicemente un’imposizione del mercato.
Capire come funzionano gli algoritmi aiuta a capire che essi non hanno inclinazioni politiche, ma piuttosto mettono in circolazione ciò che provoca in noi reazioni più intense, che richiede meno concentrazione o che può consumarsi più rapidamente. Quando l’algoritmo viene divinizzato, si dimentica che si tratta di un meccanismo semplice, e che il suo sviluppo e funzionamento coinvolge molti soggetti umani: chi commissiona una programmazione che massimizzi i profitti, chi scrive quel codice adempiendo a un incarico (probabilmente un libero professionista sottopagato, chi). lo allena, in molti casi involontariamente, con le sue creazioni e chi lo esegue sul suo computer o telefono e allo stesso tempo lo nutre.
Certo, la colpa non va all’utente, ma nemmeno al meccanismo dietro cui si nasconde il vero operatore di tutto questo processo: un uomo d’affari a cui non interessa il tipo di contenuti riprodotti dalla sua piattaforma; o cosa è lo stesso: Amazon non fa distinzione tra la distribuzione di una copia di I fratelli Karamazov o del Libro Troll di elRubius. Marx ha scritto che spesso crediamo che le strutture sociali siano oggetti inamovibili o leggi naturali indiscutibili. È un’illusione: tutte le strutture sociali e le costruzioni scientifiche e industriali (e l’Intelligenza Artificiale è una di queste) sono una conseguenza delle nostre azioni e relazioni e, con sufficiente forza collettiva, possono essere modificate.