Site icon La terrazza Mongardino

I paesi discutono di big tech e il Brasile potrebbe essere “jabuticaba” – 07/12/2024 – Energia


Il Brasile non è l’unico paese che sta discutendo proposte per aumentare la responsabilità delle piattaforme mediatiche. Internet.

Negli Stati Uniti, i repubblicani stanno cercando di attuare modifiche per punire le piattaforme che moderano “troppi” contenuti, qualcosa che considerano una censura.

Io su Unione Europeanon nel Regno Unito, na India e nello stesso Brasile, l’obiettivo è aumentare gli incentivi affinché le piattaforme rimuovano i contenuti illegali: la percezione è che le grandi tecnologie non stiano facendo abbastanza.

Ma se il Paese segue le tesi del ministro I giorni di Toffoli e l’AGU (Procuratore Generale dell’Unione), difesi nel processo contro l’avv Quadro dei diritti civili per Internet NO STF (Corte Federale Suprema), il Brasile avrà la regolamentazione “jabuticaba”, che non esiste nelle principali democrazie del mondo.

La discussione si stava dirigendo verso la STF che modifica l’articolo 19 del Marco Civil per arrivare ad un modello simile a quello dell’Unione Europea. Lì vige il regime di “avviso e azione”.

Una volta che una piattaforma Internet viene informata da un utente di contenuti potenzialmente illegali, potrebbe essere civilmente responsabile se viene citata in giudizio e perde, a meno che non abbia agito rapidamente per rimuovere il contenuto ed esaminare la segnalazione. Non è necessaria un’ordinanza del tribunale, ma solo una comunicazione extragiudiziale.

Oggi, in Brasile, le piattaforme possono essere ritenute civilmente responsabili solo se non rimuovono i contenuti dopo un ordine del tribunale, tranne nei casi di violazione del copyright e di immagini di nudo non consensuali. In questo caso saranno sufficienti le comunicazioni extragiudiziali, come i reclami degli utenti. La tendenza della Corte Suprema è stata quella di includere in questo elenco le violazioni legali dello stato di diritto democratico, il razzismo e l’omofobia.

Ma Toffoli, nella sua tesi, e il governo, nel comunicato dell’AGU, istituire un regime di responsabilità oggettiva per le società Internet.

Secondo questo regime, le aziende possono essere ritenute responsabili in caso di contenuti illegali, anche prima di ricevere un ordine del tribunale o una notifica extragiudiziale, come una segnalazione di un utente. Di conseguenza, dovrebbero monitorare attivamente tutti i contenuti pubblicati sulle loro reti e rimuovere i post potenzialmente in violazione.

Il ministro della STF e l’AGU hanno proposto un elenco di contenuti vietati che potrebbero generare questa responsabilità oggettiva, tra cui: crimini contro lo stato di diritto democratico, atti di terrorismo o atti preparatori, induzione al suicidio o all’automutilazione, razzismo, violenza contro i bambini e donne e opposizione alle misure sanitarie.

“L’obbligo di monitoraggio è un’escrescenza, non esiste in nessuna delle principali giurisdizioni democratiche”, afferma Beatriz Kira, professoressa di diritto all’Università del Sussex, nel Regno Unito.

Sia la legislazione dell’Unione Europea che l’Online Safety Act del Regno Unito (entrato in vigore nel 2023 ed è in fase di attuazione) stabiliscono che non esiste responsabilità per i contenuti senza notifica extragiudiziale e non presuppongono un monitoraggio.

“Esiste una tendenza globale verso la regolamentazione dei doveri delle piattaforme perché questi modelli di esenzione dalla responsabilità come la Sezione 230 [dos EUA]presupponiamo che queste aziende fossero attori neutrali che non interferissero nella gestione dei contenuti”, afferma Laura Schertel Mendes, professoressa di diritto digitale presso UnB e IDP.

Secondo lei lo scenario oggi è molto diverso, perché “è chiaro a tutti che le piattaforme intervengono nel flusso di informazioni attraverso algoritmi che controllano la portata e la priorità dei contenuti”.

Anche Mendes, come altri esperti, difende un approccio sistemico alla regolamentazione. Secondo la legge europea, le piattaforme devono riferire su come intendono affrontare i rischi sistemici come i contenuti pedofili, l’incitamento all’odio, gli effetti sui processi democratici, sulla salute pubblica e mentale.

Inoltre, devono pubblicare rapporti sulla trasparenza che spieghino quali contenuti hanno rimosso e quali modifiche hanno apportato ai loro algoritmi per mitigare i rischi. I revisori valutano le segnalazioni e, in caso di non conformità diffusa, le reti possono essere multate. Non è prevista alcuna punizione per i contenuti unici.

Allo stesso modo, la legge britannica impone alle piattaforme più grandi di riferire su come applicano i termini di utilizzo delle società e ne controllano la conformità, nel cosiddetto “dovere di diligenza”.

“La pressione sui social network affinché moderino meglio i contenuti illegali è aumentata in diversi paesi. Ma una decisione ‘legislativa’ della STF, che crei regole invece di limitarsi a delimitare l’immunità, potrebbe finire per creare incertezza giuridica”, dice Ivar Hartmann, professore di diritto all’Insper.

Anche in India c’è un movimento per limitare l’immunità delle piattaforme. La legge locale esenta le grandi aziende tecnologiche dalla responsabilità per i contenuti pubblicati da terze parti, a condizione che rispettino gli ordini del tribunale o del governo di rimuovere i contenuti.

Ma il governo del primo ministro Narendra Modi ha aumentato le responsabilità delle aziende attraverso emendamenti e ha annunciato lo scorso anno che sta finalizzando un nuovo Digital India Act.

Negli Stati Uniti il ​​dibattito segue linee ideologiche. I democratici spingono per eccezioni all’immunità concessa alle piattaforme. I repubblicani, d’altra parte, capiscono che le grandi tecnologie agiscono come censori, soprattutto nei confronti delle voci conservatrici.

La pressione si è intensificata da quando Donald Trump è stato bandito da YouTube, Facebook e X (allora Twitter), accusato di incitamento alla violenza nell’invasione del Campidoglio, il 6 gennaio 2021. Sono diversi i progetti di legge “anti-censura” pendenti al Senato e Camera che dovrebbe essere reintrodotta l’anno prossimo: con la maggioranza repubblicana in entrambe le Camere, le possibilità di approvazione aumentano.

Inoltre, Brendan Carr, nominato dal presidente eletto a presiedere la Federal Communications Commission (FCC), ha già affermato che l’organismo dovrebbe collaborare con il Congresso affinché “le società Internet non abbiano più carta bianca per censurare i discorsi legittimi”.



source

Exit mobile version