Dopo l’andirivienio STF (Corte Federale Suprema) dovrebbe iniziare a giudicare questa settimana due azioni che dovrebbero avere un impatto sul modo in cui i social network moderano i contenuti, alla luce di entrambi inerzia del Congresso nel legiferare sull’argomento nonché gli attentati golpistici dell’8 gennaio.
Da discorsi degli stessi ministril’aspettativa è che la corte utilizzi la sentenza per stabilire linee guida su come dovrebbero agire le reti, oltre a decidere se la norma attuale – che esonera le piattaforme dalla responsabilità per i contenuti di terze parti – è costituzionale o meno.
Tema centrale del processo sarà l’articolo 19 del Quadro dei diritti civili per Internet. Approvato nel 2014sostiene che le reti sono soggette a pagare un compenso per i contenuti pubblicati da terzi solo se, dopo una decisione del tribunale che ne ordina la rimozione, mantengono il contenuto in onda. Lo scopo della norma sarebbe quello di tutelare la libertà di espressione.
La norma attuale non impedisce alle piattaforme di applicare le proprie regole per rimuovere i contenuti. I critici, invece, affermano che ciò incoraggia l’inerzia delle reti, non dando loro alcun incentivo ad agire.
Se la mancata azione del Congresso nell’approvare nuove regole era già stata criticata durante tutto il mandato dell’ex presidente Jair Bolsonaro (PL), di fronte alla disinformazione sulla pandemia e agli attacchi contro le istituzioni, il 8 gennaio —che è stato fortemente mobilitato da reti– ha dato slancio al discorso dei ministri regolamentando l’argomento.
Dato che l’azione della Corte Suprema ha ripercussioni generali, il suo risultato sarà applicato a tutti gli altri casi simili in Brasile. Inoltre, dovresti influiscono sul modo in cui le piattaforme moderano i contenuti.
Mentre una decisione che affermi la costituzionalità dell’articolo 19 manterrebbe lo scenario così com’è, la dichiarazione della sua incostituzionalità lo ribalterebbe, portando il Brasile allo scenario pre-2014, quando non esisteva una regola specifica su come la magistratura dovrebbe trattare questo tipo di situazione.
La più probabile, però, è che la Corte Suprema adotti una linea intermedia, operando quella che, in gergo giuridico, si chiama “interpretazione conforme alla Costituzione”.
In questo scenario, diversi punti potrebbero essere oggetto di disaccordo tra i ministri, e aumenta la possibilità di interrogazioni alla STF in merito a possibili progressi sulle attribuzioni della Legislativa.
C’è una tendenza che sostiene che non spetterebbe al tribunale effettuare questo tipo di analisi in questo caso. Si sostiene, ad esempio, che la consapevolezza che la norma attuale sarebbe cattiva o insufficiente non la renderebbe incostituzionale o dubbia.
Uno degli scenari possibili è che il tribunale stabilisca nuove eccezioni alla regola generale dell’articolo 19. Attualmente, gli unici casi in cui non è necessaria una decisione del tribunale per ritenere responsabili le piattaforme sono casi di violazione del diritto d’autore e/o diffusione di immagini di nudo .non acconsentito: in quest’ultimo caso è sufficiente il mancato allontanamento previa notifica da parte della persona lesa o del suo rappresentante.
In questo senso, si suggerisce che la Corte Suprema possa stabilire nuovi temi che vanno oltre la regola generale, come i crimini contro lo stato di diritto democratico, il razzismo, l’incitamento all’odio e la protezione dei bambini. In questo caso i ministri possono definire un percorso che preveda la rimozione su iniziativa delle piattaforme, oppure previa notifica.
Si stanno valutando regole diverse anche per i contenuti promossi sulle reti a pagamento da parte degli utenti.
Una delle sfide è quella del Marco Civil Non si applica solo ai social mediama a tutti i fornitori di applicazioni, che includono di tutto, da pagine come Wikipedia a siti di shopping come Mercado Livre. Pertanto, c’è chi sostiene anche che la Corte Suprema definisca quali attori saranno il bersaglio di qualsiasi nuova norma.
Un’altra possibilità, anch’essa controversa, sarebbe che la STF stabilisse obblighi più generali, come la presentazione di relazioni.
Allo stesso modo in cui ci sono critici sul fatto che la Corte Suprema segua questa linea, fermo restando che ciò dovrebbe essere discusso in sede legislativa, ci sono argomenti secondo cui l’inerzia del Congresso, la preponderanza delle reti negli ultimi anni e la gravità della crisi politica vissuta in Brasile giustificherebbe l’azione della Corte.
Più di una volta negli ultimi anni, il tribunale dichiarò che avrebbe giudicato l’argomento e arrivò al punto di discuterne. Nel 2023, ha indicato che avrebbe aspettato che il Congresso votasse su nuove regole, cosa che non è mai avvenuta.
In corso dal 2020, il PL das Fake News È stato approvato al Senato, ma si è bloccato alla Camera dei Deputati a causa della resistenza delle piattaforme e della destra, che ha cercato di attaccare l’etichetta di censura su questo dibattito.
Nelle versioni iniziali, si puntava a garantire un “giusto processo” di moderazione, in modo che l’utente fosse informato delle possibili sanzioni e potesse presentare ricorso, oltre alle segnalazioni di trasparenza.
Nella versione formulata sotto il governo Lula (PT), nel 2023, il Il progetto ha introdotto concetti come “dovere di diligenza” nelle retiche dovrebbe agire contro alcuni atti illeciti considerati prioritari.
La battuta d’arresto più grande del progetto si è verificata nel 2024, dopo uno scontro tra Elon Musk, proprietario di X (ex Twitter), e il ministro della STF Alexandre de Moraes, quando il presidente della Camera, Arthur Lira (PP-AL), ha portato la discussione sul progetto praticamente al punto di partenza.
Delle azioni condotte dalla FST sui social network, due riguardano la responsabilità delle piattaforme. La differenza principale tra loro è che uno è prima e l’altro dopo l’approvazione del Marco Civile da Internet. Ce ne sono poi altri due circa la possibilità di bloccare giudizialmente le applicazioni di messaggistica.