La Spagna imporrà multe pesanti a coloro che non etichettano i contenuti generati da
Il governo spagnolo ha approvato martedì (11) un disegno di legge che impone multe pesanti alle aziende che utilizzano i contenuti generati dall’intelligenza artificiale (AI) senza etichettarlo correttamente in quanto tale, nel tentativo di frenare l’uso dei cosiddetti “profondi”.
Il progetto adotta le linee guida della legge storica dell’Unione europea, imponendo rigorosi obblighi di trasparenza ai sistemi di intelligenza artificiale ad alto rischio, ha detto al Ministro della trasformazione digitale, Oscar Lopez, ai giornalisti.
“L’intelligenza artificiale è uno strumento molto potente che può essere usato per migliorare la nostra vita … o per diffondere disinformazione e attaccare la democrazia”, ha detto.
La Spagna è tra i primi paesi dell’UE ad attuare le regole del blocco, considerate più complete del sistema degli Stati Uniti, che dipende ampiamente dalla conformità volontaria e da una trapunta di regolamenti statali.
Lopez ha aggiunto che tutti sono suscettibili agli attacchi di “DeepFake” – un termine che comprende video, fotografie o audios che sono stati modificati o generati da algoritmi di AI, ma sono presentati come reali.
Il disegno di legge spagnolo, che deve essere approvato dalla camera inferiore, classifica la corretta etichettatura del contenuto IA come una “grave infrazione” che può portare a multe fino a 35 milioni di euro (38,2 milioni di dollari) o 7% dei ricavi annuali globali.
Garantire che i sistemi AMA non abbiano danneggiato la società è stata una priorità per i regolatori da quando Openai ha rivelato Chatgpt alla fine del 2022, che ha impressionato gli utenti coinvolgendoli nelle conversazioni umane e svolgendo altri compiti.
Il disegno di legge proibisce inoltre altre pratiche, come l’uso di tecniche subliminali – suoni e immagini impercettibili – per manipolare gruppi vulnerabili. Lopez ha citato come esempi di chatbot che incitano persone con vizi per giocare o giocattoli che incoraggiano i bambini a esibirsi per pericolose sfide.
La legge impedirebbe inoltre alle organizzazioni di classificare le persone attraverso i loro dati biometrici utilizzando l’IA classificandole in base al loro comportamento o alle caratteristiche personali per dare loro accesso ai benefici o valutare il rischio di commettere un crimine.
Tuttavia, le autorità sarebbero comunque autorizzate a utilizzare la sorveglianza biometrica reale negli spazi pubblici per motivi di sicurezza nazionale.
L’applicazione delle nuove regole sarà a carico della nuova agenzia di supervisione dell’IA, ad eccezione di casi specifici che coinvolgono la privacy dei dati, i crimini, le elezioni, le classificazioni del credito, i sistemi di mercato assicurativo o di capitale, che saranno controllati dai rispettivi organi di ispezione.
La Cina importerà più cibo dall’America Latina e dall’Europa