Site icon La terrazza Mongardino

Il Marco Civile approvato dal Senato stabilisce regole più severe per l’IA quando c’è un impatto sulla vita umana


Veicoli autonomi, diagnostica medica e controllo del traffico sono alcuni dei sistemi classificati ad “alto rischio”; La proposta stabilisce inoltre norme sulla protezione del diritto d’autore

FreepikLa proposta che regola l’IA nel Paese passa ora alla Camera dei Deputati
O Senato federale approvato il disegno di legge che istituisce un quadro normativo per l’ intelligenza artificiale (IA) in Brasile. La proposta passa ora alla Camera dei Deputati e mira a garantire lo sviluppo responsabile dell’IA, tutelando i diritti dei cittadini e stimolando l’innovazione tecnologica nel Paese. Il testo, che è stato sottoposto a 14 audizioni pubbliche con la partecipazione di esperti e della società civile, comprende diverse linee guida di regolamentazione, con particolare attenzione alla classificazione dei sistemi in base al rischio che rappresentano.

I sistemi “ad alto rischio”, come quelli che hanno un impatto diretto sulla vita umana o sui diritti fondamentali, avranno regole più severe. Inoltre, l’uso dell’intelligenza artificiale in contesti quali i veicoli autonomi, la selezione degli studenti e le politiche pubbliche sarà più limitato. Sono vietati anche i sistemi a “rischio eccessivo”, come quelli che implicano armi autonome e tecniche subliminali.

Sistemi di intelligenza artificiale ad alto rischio

  1. Veicoli autonomi;
  2. Controllo del traffico e gestione dei servizi essenziali (quali fornitura di acqua ed energia elettrica) che comportino rischio per l’integrità fisica delle persone o interruzione illegale o abusiva dei servizi;
  3. Selezione degli studenti per l’accesso all’istruzione e alla progressione accademica;
  4. Prendere decisioni in merito al reclutamento, alla valutazione, alla promozione e al licenziamento dei lavoratori;
  5. Valutazione dei criteri di ammissibilità ai servizi e alle politiche pubbliche;
  6. Investigazione dei fatti e applicazione della legge con rischio per le libertà individuali, soprattutto nell’amministrazione della giustizia;
  7. La gestione delle priorità nei servizi di emergenza (come vigili del fuoco e assistenza medica);
  8. Studio analitico dei crimini;
  9. Diagnosi mediche;
  10. Controllo delle frontiere;
  11. Riconoscimento delle emozioni mediante identificazione biometrica;
  12. Analisi dei dati per la prevenzione della criminalità.

Una delle principali innovazioni del progetto è l’introduzione di una valutazione preliminare del rischio, obbligatoria per i sistemi generativi e di uso generale, al fine di misurarne il potenziale impatto prima che siano resi disponibili sul mercato. La proposta stabilisce inoltre norme di protezione del diritto d’autore, consentendo l’uso di contenuti protetti per addestrare l’intelligenza artificiale in contesti di ricerca e istruzione, senza danneggiare gli interessi economici dei creatori.

Per quanto riguarda i diritti dei cittadini, il progetto garantisce la tutela della privacy e dei diritti della personalità. L’uso dell’intelligenza artificiale per l’identificazione biometrica e altre tecnologie deve rispettare il consenso preventivo ed evitare discriminazioni o violazioni della privacy. Per i sistemi che possono incidere direttamente sui diritti dei lavoratori, come le decisioni automatizzate di assunzione e licenziamento, sarà garantito il diritto alla revisione umana delle decisioni.

L’Autorità nazionale per la protezione dei dati (ANPD) sarà responsabile della regolamentazione e del monitoraggio dell’IA in Brasile, imponendo sanzioni e multe quando necessario. L’ANPD coordinerà inoltre il Sistema nazionale di regolazione e governance dell’intelligenza artificiale (SIA), integrato da organismi statali ed enti di autoregolamentazione, con l’obiettivo di armonizzare le politiche pubbliche e promuovere la trasparenza nell’uso dell’IA.

Segui il canale Jovem Pan News e ricevi le principali notizie sul tuo WhatsApp!

Inoltre, il progetto garantisce che i cittadini colpiti da sistemi ad alto rischio abbiano il diritto a spiegazioni sulle decisioni prese dall’IA, potendo contestarle e richiedere una revisione umana, soprattutto quando tali decisioni hanno un impatto legale significativo. Il sostituto cerca inoltre di bilanciare la tutela dei diritti individuali e sociali con il progresso tecnologico, stimolando l’innovazione, soprattutto nelle microimprese e nelle startup nazionali, e promuovendo l’alfabetizzazione digitale della popolazione per utilizzare meglio la tecnologia.

Pubblicato da Felipe Dantas

*Rapporto prodotto con l’aiuto dell’intelligenza artificiale





source

Exit mobile version