Ramon López de Mántaras, un esperto di AI: “La coscienza e l’intelligenza possono essere somministrate solo negli esseri viventi” | Tecnologia
Ramon López de Mántaras (Sant Vicenç de Castellet, Barcellona, 72 anni) può dire di essere dedicato all’intelligenza artificiale (AI) prima di diventare alla moda. Molto prima, in effetti: ha avuto cinquant’anni, il che lo rende uno dei pionieri della disciplina di Patrios. Racconta come aneddoto che, quando Yann Lecun, attuale capo scienziato della meta e considerava uno dei genitori di Deep Learning (Apprendimento automatico), stava facendo la tesi di dottorato all’Università di Sorbona di Parigi, era professore ospite lì e gli ha dato un corso.
Questo ingegnere elettrico, informatico e fisico catalano è il fondatore dell’Istituto di ricerca sull’intelligenza artificiale del Centro superiore per la ricerca scientifica (CSIC), un’agenzia con la quale collabora ancora come professore di ricerca emerito. Il suo ultimo libro ha appena presentato a Madrid, 100 cose da sapere sull’intelligenza artificiale (Lectio Ediciones), in cui offre un tour molto pedagogico nella storia di questa disciplina, riuscendo a spiegare idee che non sono così tanto. Per l’IA generativa, quello dietro strumenti come Chatgpt o Co -Pilot, dedica l’epilogo solo perché è scoppiato quando il manoscritto era pronto per essere pubblicato.
Chiedere. Che cosa è stato, secondo te, l’impatto dell’intelligenza artificiale generativa sulla disciplina?
Risposta. Scientificamente parlando, vedo un interesse piuttosto scarso. Se ci atteniamo alla moderna intelligenza artificiale, la grande domanda scientifica è se è possibile che ci sia intelligenza in qualcosa che non è biologico. Credo che, per capire veramente il mondo, è necessario essere consapevoli. Questo è l’obiettivo scientifico dai tempi dei pionieri degli anni Cinquanta e dei sessanta: fare macchine uguali o più intelligenti degli umani in tutti i modi. La mia opinione e quella di altri come Yann Lecun o Demis Hassabis [director general de Google DeepMind]è che l’intelligenza artificiale generativa non solo non ci fa spostare verso così forte, ma, come dice Lecun, ci devia dal modo per raggiungerlo. L’argomento è che non possono capire il mondo perché non hanno un corpo con cui interagire in questo mondo. Vado un po ‘oltre: avere un corpo può permetterti di imparare le leggi fisiche di base e le relazioni di causa più elementari che conosci a un bambino, come se rilasci una mela, cade a terra. Ma ciò non implica che un’intelligenza artificiale sia consapevole.
P. Tuttavia, l’IA generativa ha causato fascino in tutto il mondo. Il primo avviso è stato quando Google Blake Lemoine Engineer pensava che stesse chattando con un’intelligenza artificiale che era a conoscenza. Perché tendiamo ad antropomorfizzare?
R. È qualcosa di inerente all’essere umano. Successivamente proiettiamo argomenti su oggetti che non hanno qualità umane. È sempre stato così. Ma dobbiamo riconoscere che, in questo caso, il risultato è impressionante. Chiedi qualcosa a GHATGPT e le risposte sono di una precisione molto passata, grammaticalmente perfetta, persuasiva e con un discorso ben fatto, sebbene a volte rilasci falsità. Capisco che le persone possono pensare che dietro di esso ci sia davvero un’intelligenza ancora più potente della tua. Ma in realtà stai affrontando un programma per computer che rileva e ricombina modelli sempre e più e più volte e rigurgitare i risultati.
P. C’è chi considera che l’IA è già intelligente come le persone o addirittura cosciente. È possibile che una macchina riesca a caricare la consapevolezza?
R. Chiunque afferma che la macchina sia intelligente e cosciente, questo è colui che deve dimostrarlo. Sono uno di quelli che credono che essere consapevoli, capire il mondo ed essere intelligenti nel senso umano del termine sia profondamente radicato nel fatto che stiamo vivendo esseri. In cui il nostro substrato è la chimica del carbonio, non quella del silicio. Siamo così diversi dalle macchine, con il loro hardware e il loro software … La fisica dietro i computer si basa su transistor che conducono o meno elettricità, alcuni e zeri, mentre i nostri simboli fisici sono i procedimenti giudiziari che facciamo con i neuroni, che sono molto più complessi del linguaggio binario. Abbiamo attività elettrica, ma anche chimica. In breve, la natura del cervello e del corpo umano è così incomparabile e così diversa da una macchina che, secondo me, la coscienza e l’intelligenza possono verificarsi solo negli esseri viventi. Un’altra cosa è che, in una giornata molto lontana, la bioingegneria si evolverebbe in modo tale che i replicanti di Blade Runner Erano fattibili. Se ciò accadesse, inizierei ad ammettere che le macchine potrebbero diventare consapevoli e intelligenti.
P. Nel libro parla che una delle sfide fondamentali dell’IA è quella di ottenere il buon senso. Quanto puoi avanzare lì?
R. Bene, per ora vedo che ogni giorno viene fuori una giornata tecnologica per dire che il suo nuovo modello linguistico ha molti più miliardi di parametri rispetto al precedente. Ma tutti questi modelli sono, in sostanza, lo stesso. Si basano sul concetto di trasformatore, che è l’architettura neuronale dietro i grandi modelli di linguaggio (LLM), che valuta quale parola è più probabile che segua una certa sequenza di parole. Lì, scientificamente parlando, non vedo progressi. Ora, ci sono già grandi tecnologici, come Google DeepMind, che stanno dando un corpo robotico ai loro modelli. Lì possiamo vedere cose interessanti. Mentre i dati con cui vengono addestrati i modelli generativi si stanno esaurendo, Hassabis o Lecun sostengono che la strada deve renderli corporei in modo che possano capire il mondo, qualcosa che ho detto per 20 anni nelle mie conferenze. Ciò che deve essere fatto è generare ibridi, integrare reti neuronali con architetture cognitive e simboliche basate sulla logica. E il risultato di ciò, fornisci il corpo.
P. Senza dare l’IA, non ci saranno grandi progressi?
R. L’intelligenza artificiale non ha sempre bisogno di conoscere il mondo per funzionare bene. Alphafold, che ha guadagnato il premio Nobel per la chimica a Hassabis, ha 32 diversi algoritmi. Ci sono reti neurali, Apprendimento automatico e causalità che lavora in modo integrato. Per prevedere il modo in cui le proteine sono piegate, non è necessario avere un modello del mondo e, quindi, non è necessario avere un corpo.
P. Si lamenta nel libro che l’IA generativa viene distribuita in modo molto affrettato e investito. Come dovrebbe essere fatto? Che tipo di regolamentazione dovremmo avere?
R. Siamo in una specie di corsa agli armamenti. Il primo modello di CHATGPT lo ha lanciato con l’idea che avrebbero già ricevuto feedback dalle centinaia di milioni di persone che lo usano. Questa dinamica di rilasciare il bug e aspettare di vedere cosa succede è fatale dal punto di vista etico e persino legale. Non puoi fare esperimenti sociali su larga scala, penso che tu debba essere più prudente. Mi preoccupo, perché abbiamo già visto, farlo sapere, un paio di suicidi in Belgio e negli Stati Uniti. Emily Bender, Timnit Gebru e Margaret Mitchell hanno già avvertito in un articolo sulle conseguenze del rilascio di una tecnologia che ha fatto pensare che le persone stessero interagendo con un essere umano.
P. Il modo in cui l’UE sta focalizzando la questione sembra corretto?
R. L’Unione Europea è in senso bene, sebbene non sia un regolamento con cui concorda al 100%. Penso che comporti un onere burocratico molto grande, che renderà difficile per le aziende con buona fede. Come richiederai la trasparenza algoritmica se i progettisti di software stessi non sanno cosa sta realmente accadendo all’interno della scatola nera che è il Apprendimento automatico? Un’altra cosa che critica è che non menzionano nemmeno una volta le applicazioni di armi letali autonome.
Ma, con questi avvertimenti, credo che l’idea di background dei regolamenti sia buona. Le applicazioni pericolose dell’IA devono essere regolate. Non parliamo di dominare l’umanità, ma di pericoli reali: manipolazione di informazioni, disinformazione, influenza su risultati elettorali, pregiudizi, discriminazione, consumo di energia assolutamente insostenibile e così via. Abbiamo già un lungo elenco di problemi reali. Dà la sensazione che coloro che si concentrano sui rischi esistenziali dell’IA lo fanno per gestire un velo spesso su ciò che sta già accadendo.