Il governo approva la norma per il buon uso dell’IA, che costringe a etichettare i contenuti creati con questa tecnologia | Tecnologia
Oggi il Consiglio dei ministri ha approvato il progetto di legge per l’uso etico, inclusivo e benefico dell’intelligenza artificiale (AI), che mira a mettere in ordine nell’applicazione pratica di questa tecnologia. Il progetto si adatta alla nostra legislazione ciò che è stabilito nella regolamentazione europea dell’intelligence artificiale, concordato dalle istituzioni della comunità l’8 dicembre 2023 e approvato dal Parlamento europeo il 13 marzo dello scorso anno. “L’intelligenza artificiale è uno strumento molto potente, che può essere utilizzato per migliorare la nostra vita o per diffondere bulos e attaccare la democrazia”, ha detto a una conferenza stampa il ministro della trasformazione digitale e della funzione pubblica, Óscar López.
Come ha ricordato il ministro, i regolamenti europei “difendono i nostri diritti digitali, identificando le pratiche proibite”. Ad esempio, considera una grave infrazione di non rispettare l’etichettatura di testi, video o audios generati con AI. “È probabile che siamo tutti soggetti a tale attacco. Sono chiamati profondi E sono vietati “, ha detto López.
Tuttavia, il ministro non ha specificato come eseguire l’etichettatura. “Quando i regolamenti saranno sviluppati, l’agenzia spagnola per la supervisione dell’intelligenza artificiale (Aesia) metterà gli standard”, ha detto. Chi controllerà che sono soddisfatti? La gestione e l’elaborazione dei dati biometrici saranno a carico dell’agenzia spagnola per la protezione dei dati (AEPD); I sistemi di intelligenza artificiale che possono influenzare la democrazia saranno a carico del consiglio elettorale centrale; e del Consiglio generale della magistratura che può influenzare l’applicazione della giustizia.
Il resto dei casi sarà studiato da Eesia. Costituito l’anno scorso e basato in una Coruña, l’agenzia è diretta da Ignasi Belda e prevede di assumere fino al 2026 almeno 80 esperti di varie discipline che devono rivedere l’adeguatezza delle diverse domande dall’IA ai regolamenti.
López ha ricordato che, come stabilito dai regolamenti europei dell’IA, che non rispettano i regolamenti dovranno affrontare multe fino a 35 milioni di euro e/o tra il 5% e il 7% della fatturazione mondiale.
Quadro europeo
La regolamentazione europea dell’IA, considerata la più avanzata al mondo in questa materia, ha un approccio pionieristico. Con l’obiettivo di non diventare obsoleto, la regolamentazione classifica le diverse applicazioni di disponibili sull’intelligenza artificiale in base al loro rischio e, a seconda di ciò, stabilisce requisiti e obblighi diversi. Questi vanno dall’uso senza restrizioni, ad esempio, un filtro di spam o un consulente di contenuto, fino al divieto totale. Questi casi, più gravi, si riferiscono a tali applicazioni “che trascendono la consapevolezza di una persona o una persona deliberatamente manipolativa”, che sfruttano le loro vulnerabilità o quelle che deducono emozioni, razza o opinioni politiche delle persone.
Tra le due estremità ci sono le tecnologie così chiamate “ad alto rischio”, soggette a supervisione permanente. I sistemi di identificazione biometrica remoti sono inquadrati in questa categoria, che un ampio settore del Parlamento voleva vietare rigorosamente; Sistemi di categorizzazione biometrica o riconoscimento delle emozioni. Anche i sistemi che influenzano la sicurezza delle infrastrutture critiche e quelli relativi all’istruzione (valutazione del comportamento, sistemi di ammissione e esami), occupazione (selezione del personale) e fornitura di servizi pubblici essenziali, applicazione della legge o gestione della migrazione.
Il regolamento stabilisce inoltre che è necessario effettuare rapporti periodici per aggiornare questa classificazione, in modo che, quando si verificano nuove applicazioni non previste nel documento, viene determinato in quale categoria è incorniciata (utilizzare senza restrizioni, utilizzare soggetti a restrizioni o divieti).
Ciò è accaduto, ad esempio, con l’IA generativa, la tecnologia dietro strumenti come Chatgpt: la sua emergenza si è verificata quando la negoziazione del regolamento era già molto avanzata. È stato discusso se farne una menzione specifica o meno. Infine, è stato incluso e stabilito che i modelli fondamentali così chiamati dovranno soddisfare i criteri di trasparenza, come specificare se un testo, una canzone o una fotografia sono stati generati tramite AI, oltre a garantire che i dati che sono stati utilizzati per formare i sistemi rispettano il copyright.
Il documento non ha stabilito, tuttavia, come dovrebbe essere eseguita questa segnaletica dei contenuti preparati dall’IA o come garantire che rispettino il copyright. Queste due questioni chiave non sono state specificate nella bozza presentata oggi.