“È un’innovazione straordinaria, sono rimasto stupito anch’io.” “Sembra molto più naturale della maggior parte dei programmi simili.” “Ha imparato intuitivamente a conversare su quasi tutti gli argomenti.” Queste sono alcune delle prime opinioni degli esperti di intelligenza artificiale (AI) su ChatGPT pubblicate su questo giornale. Ci sono voluti alcuni giorni perché lo strumento stupisse sia i professionisti che i non addetti ai lavori, che hanno condiviso frammenti delle loro conversazioni con il bot sui social network. All’improvviso, chiunque avesse una connessione Internet poteva chattare con una macchina che offriva risposte coerenti, ben scritte, se non sempre vere. Per molti la sensazione era quella di parlare con qualcuno, non con qualcosa. Questo sabato segna due anni dal lancio di ChatGPT, che ha segnato la presentazione dell’intelligenza artificiale generativa, che produce contenuti apparentemente originali da istruzioni umane.
Che momento sta attraversando questa tecnologia? Il fascino iniziale ha lasciato il posto a una guerra commerciale per guidare l’implementazione di questo tipo di strumenti. Microsoft si è affrettata a concludere un accordo di collaborazione con OpenAI, sviluppatore di ChatGPT e Dall-E, e Google non ha impiegato due mesi per annunciare il lancio dei propri modelli aperti. Oggi parliamo già di quello che la società di consulenza Gartner chiama il valle della delusione: L’euforia iniziale ha generato aspettative talmente elevate che, non essendo state subito soddisfatte, hanno fatto scemare l’interesse. È una fase del ciclo naturale di esagerazioni sviluppi tecnologici, e la cosa normale è che, nel giro di poco (meno di due anni, per Gartner), la curva delle aspettative tornerà a salire, anche se in modo più moderato rispetto alla prima volta.
“Due anni dopo, i cervelli artificiali sono fermi super cognati stocastici: parlano con grande autorità, sembrano sapere tutto, ma ciò che dicono non è il risultato di una conoscenza reale, ma piuttosto della loro capacità, acquisita intuitivamente, di apparire saggi”, riassume Julio Gonzalo, professore di Lingue e Informatica Sistemi dell’UNED e vicerettore aggiunto per la ricerca. Lo stesso Andrej Karpathy, uno dei creatori del modello GPT (e che ha lasciato OpenAI a febbraio), ha dichiarato qualche settimana fa di vedere segni di esaurimento nell’intelligenza artificiale generativa: poiché le prime versioni di ChatGPT erano già addestrate con quasi tutti i testi disponibili su Internet, le nuove versioni non saranno in grado di utilizzare molti più dati rispetto ai predecessori già recensiti. Ciò significa che i modelli non possono migliorare troppo. “Perché ci sia un grande salto sarà necessaria innovazione nell’architettura algoritmica, così come lo è stato lo sviluppo nel 2017 dei trasformatori. [un tipo de redes neuronales clave en el desarrollo de los grandes modelos de lenguaje]”, afferma Álvaro Barbero, direttore del dipartimento di Intelligenza Artificiale presso l’Istituto di Ingegneria della Conoscenza.
Preoccupazione c’è anche sul fronte imprenditoriale. Gli investitori non hanno ancora visto un modo per rendere redditizia l’intelligenza artificiale generativa. OpenAI ha raccolto 10 miliardi di dollari in ottobre “per operare in modo flessibile”, oltre ai 13.000 dollari impegnati da Microsoft nel 2023, ma quella somma potrebbe non essere sufficiente. Il modello GPT-5, annunciato inizialmente per la fine del 2023, non è ancora arrivato e gli analisti cominciano a pensare che non sarà così rivoluzionario come lo ha venduto il CEO dell’azienda, Sam Altman.
Entro 12 mesi la bolla GenAI scoppierà.
• L’economia non funziona
• L’approccio attuale ha raggiunto un plateau
• Non esiste un’app killer
• Rimangono le allucinazioni
• Permangono errori assurdi
• Nessuno ha un fossato
• Le persone stanno iniziando a rendersi conto di tutto quanto sopra. pic.twitter.com/OXd1kRyXYg— Gary Marcus (@GaryMarcus) 24 luglio 2024
Secondo le proiezioni di OpenAI, l’azienda non realizzerà profitti fino al 2029 e nel frattempo spenderà circa 500 milioni di dollari al mese. Secondo i calcoli dei media specializzati L’informazioneche stima il costo per l’addestramento dei suoi modelli in 7 miliardi entro il 2024, OpenAI potrebbe rimanere senza soldi la prossima estate. “Entro 12 mesi, la bolla dell’intelligenza artificiale scoppierà”, ha affermato lo scorso luglio l’esperto di intelligenza artificiale Gary Marcus. “I conti non tornano, l’approccio attuale è stagnante, non è stata sviluppata alcuna app definitiva, allucinazioni [cuando el sistema se inventa cosas] Sono ancora lì, gli errori stupidi persistono, nessuno ha un vantaggio insormontabile sugli altri e le persone si stanno rendendo conto di tutto quanto sopra”.
La rivoluzione dell’IA
Considerazioni finanziarie a parte, non c’è dubbio che lo strumento lanciato il 30 novembre 2022 sia stato abbagliante. “Dal mio punto di vista, la comparsa di ChatGPT è stata qualcosa di assolutamente rivoluzionario”, afferma Carlos Gómez Rodríguez, professore di Informatica e Intelligenza Artificiale all’Università di La Coruña ed esperto di elaborazione del linguaggio naturale, il ramo dell’intelligenza artificiale che cerca di comprendere e generare testi. “Per la prima volta lo stesso sistema potrebbe fare tutto senza una formazione specifica. Prima potevi creare un traduttore spagnolo-inglese, ma progettandolo appositamente per quello. Si è scoperto che sviluppando questi sistemi più grandi, il modello era in grado di fare molte cose. Ciò ha cambiato tutto nel mio campo di ricerca”.
“L’intelligenza artificiale generativa ha fornito applicazioni interessanti, come riassumere, scrivere lettere in altre lingue o estrarre informazioni da documenti, ma anche applicazioni errate, come usarle per estrarre informazioni, quando ciò che fanno è prevedere, non cercare o creare deduzioni, quando non ragionano”, spiega Ricardo Baeza-Yates, direttore della ricerca dell’Experiential AI Institute della Northeastern University (Boston) e professore all’Università Pompeu Fabra di Barcellona. L’intelligenza artificiale generativa, insieme ai generatori di immagini o video, contribuisce a diluire il confine tra realtà e menzogna con i cosiddetti deepfake e ha dato origine a forme di attacchi informatici più sofisticate ed economiche.
A soli tre mesi dal lancio di ChatGPT, OpenAI ha presentato il modello GPT-4, un salto di qualità rispetto alla prima versione dello strumento. Ma nei quasi due anni successivi non si sono registrati ulteriori progressi significativi. “Sembra che con GPT-4 siano stati raggiunti i limiti di ciò che un’intelligenza artificiale è in grado di emulare la nostra intuizione. È stato anche confermato che la capacità di pensiero razionale non è apparsa per magia semplicemente ingrandendo il cervello”, spiega Gonzalo.
Dove siamo e cosa resta da vedere
L’ultima novità in fatto di IA generativa sono i sistemi multimodali, capaci di combinare diversi supporti (testo, immagine e audio). Ad esempio, puoi mostrare all’ultimo ChatGPT o Gemini una foto del frigorifero in modo che possa dirti cosa puoi preparare per cena. Ma costruisci questi risultati con l’intuizione, non con il ragionamento. “La prossima cosa sarà indagare se i modelli linguistici di grandi dimensioni possono essere agenti. Cioè, lavorano da soli e interagiscono tra loro per nostro conto. Potrebbero prenotarci i biglietti aerei e l’hotel secondo le istruzioni che diamo loro”, spiega Gómez Rodríguez.
“Penso che i modelli di intelligenza artificiale generativa stiano raggiungendo il loro limite e bisognerà aggiungere altri elementi, come la vera conoscenza (Perplexity e altri citano già le fonti che utilizzano), la logica deduttiva (AI classica) e, a lungo termine, la conoscenza comune senso, il meno comune dei sensi. Solo allora potremo cominciare a parlare di vero ragionamento”, afferma Baeza-Yates.
Questo è ciò che Altman ha promesso per il prossimo anno. Questa viene definita IA generale, che eguaglia o supera le capacità umane. Sembra chiaro che qualcosa del genere richiederà molto tempo per realizzarsi e che, in linea con quanto affermato da Baeza-Yates, ci vorrà qualcosa di più dell’intelligenza artificiale generativa per raggiungere tale obiettivo. “I grandi modelli multimodali saranno una parte fondamentale della soluzione complessiva per lo sviluppo dell’IA generale, ma non credo che da soli basteranno: avremo bisogno di una manciata di altri grandi progressi”, Demis Hassabis, responsabile della ricerca sull’IA , ha affermato la settimana scorsa Google e il Premio Nobel per la Chimica, in un incontro con i giornalisti al quale ha partecipato EL PAÍS.
“L’intelligenza artificiale generativa non solo non ci avvicina alle grandi questioni scientifiche dell’intelligenza artificiale, come ad esempio se possa esserci intelligenza in qualcosa che non è organico, ma ci distoglie da esse. Questi sistemi sono incapaci di ragionare, dovremmo ricorrere all’IA simbolica [la basada en la lógica matemática]”, riflette Ramón López de Mántaras, fondatore dell’Istituto di ricerca sull’intelligenza artificiale CSIC e uno dei pionieri in Spagna della disciplina, che coltiva da più di 40 anni. Alphafold, lo strumento sviluppato dal team Hassabis per prevedere la struttura di 200 milioni di proteine che gli è valso il Premio Nobel, integra 32 diverse tecniche di intelligenza artificiale, di cui quella generativa è solo una. “Penso che il futuro andrà verso questi tipi di sistemi ibridi”, afferma López de Mántaras.