Così funziona il Centro ricorsi europeo, il garante degli eccessi dei social network | Tecnologia
Bufale e commenti apertamente razzisti o incitanti all’odio sono sempre più diffusi sui social network. Gli utenti possono segnalare contenuti che ritengono problematici alle piattaforme stesse, ma queste a volte non rispondono o si rifiutano di rimuoverli. Può succedere anche il contrario: che la piattaforma decida di eliminare articoli giornalistici che trattano, ad esempio, di terrorismo, o post con nudità che ritiene inappropriati. Le aziende tecnologiche non hanno più l’ultima parola su queste questioni: la settimana scorsa è stato lanciato lo European Appeals Center, l’organismo a cui rivolgersi quando non siamo d’accordo con le decisioni dei social network. Al momento accetta solo casi relativi a Instagram, TikTok e YouTube, ma si prevede di espandere il suo spettro per coprire tutte le app.
Con sede a Dublino e un organico di 25 dipendenti, l’apertura di un centro di ricorso era prevista nel Digital Services Act (DSA), in vigore da agosto 2023. L’obiettivo del regolamento, che colpisce le grandi piattaforme digitali che operano in comunità territorio, è tutelare i consumatori, il che significa contrastare la disinformazione e la diffusione di contenuti illeciti. Se vengono rilevati contenuti di questo tipo, le aziende devono rimuoverli immediatamente o rischiano di ricevere multe salate (fino al 6% del loro fatturato globale, che per alcune aziende può ammontare a decine di miliardi).
Le decisioni del Centro ricorsi non sono vincolanti. L’organizzazione è considerata il luogo in cui le grandi aziende tecnologiche e gli individui o le organizzazioni civiche possono risolvere le loro divergenze prima di aggravare il problema. Ma solo perché non sono vincolanti non significa che siano innocui. “Se le piattaforme non applicano le nostre decisioni, dovranno successivamente giustificarne il motivo all’autorità di regolamentazione. Pertanto, credo che anche una decisione non attuata abbia molto valore”, spiega a EL PAÍS Thomas Hughes, direttore generale della neonata organizzazione.
Il centro attualmente accetta casi in sei lingue (inglese, francese, spagnolo, italiano, tedesco e olandese), anche se amplierà progressivamente il suo campo di applicazione fino a coprire tutte le lingue ufficiali dell’UE. L’organizzazione sarà finanziata attraverso le tariffe addebitate alle piattaforme (95 euro a pratica). Al momento non offrono stime su quante cause legali riceveranno ogni anno. Man mano che aumentano il personale, la loro attenzione aggiungerà altri social network, come Facebook, X o Threads, in cui il testo ha più peso. Secondo quanto afferma l’organizzazione, si è cominciato con Instagram, TikTok e YouTube perché è più facile risolvere le controversie se ciò che deve essere esaminato è un’immagine o un video piuttosto che un testo.
Dove fissare i limiti
Gli inglesi sanno che la stragrande maggioranza degli utenti non sa dell’esistenza dell’Appeals Center. Molti, infatti, non sanno nemmeno di poter segnalare contenuti problematici ai social network e di dover rispondere. O che ogni piattaforma ha i propri codici di condotta, che stabilisce di propria iniziativa. Avrebbe senso che tutte le reti imponessero le stesse regole? “Lo fanno già di fatto”, dice Hughes. “In effetti, il mondo online è un’estensione di quello offline, e ciò che è illegale lì è illegale anche nella sfera digitale. Il minimo comune denominatore sono i Diritti Umani, che sono codificati in tutta la legislazione nazionale. Su questa base vengono aggiunti livelli specifici per ciascuna piattaforma. Credo che ogni social network debba trovare il suo equilibrio tra la massimizzazione del diritto di espressione, ma con dei limiti”.
La chiave è dove vengono fissati questi limiti. “Alcune piattaforme sono più permissive di altre, e va bene così. A patto che non si superino alcune linee rosse”, sottolinea. L’incitamento alla violenza, i messaggi che diffondono odio verso qualsiasi gruppo, le bufale e la disinformazione sono inaccettabili.
Il contenuto sessuale esplicito, purché consensuale, è perfettamente legale. Alcune piattaforme, come X, trasmettono interi film porno; Altri, come Facebook o Instagram, non permettono nemmeno di vedere un capezzolo femminile (quelli maschili sì). Anche in questi casi c’è spazio per la protesta. “Ci sono momenti in cui i post che mostrano i sintomi del cancro al seno vengono rimossi nonostante anche le piattaforme con le politiche più restrittive consentano di vedere i seni se si vuole sensibilizzare la popolazione su questa malattia. L’utente che protesterà contro tale decisione avrà ragione”, afferma Hughes.
Come funziona
Ogni caso, dice l’esecutivo, ha le sue particolarità, quindi va analizzato separatamente. Gli utenti insoddisfatti di una decisione relativa ai contenuti possono accedere al sito web del Centro ricorsi e compilare un modulo in cui esprimono e motivano il loro reclamo. Verrà loro addebitata una “quota simbolica” di cinque euro, che verrà rimborsata se l’organizzazione è d’accordo. “Ogni persona che presenta una controversia ammissibile [esto es, que la interponga un ciudadano europeo] riceverai un risultato. Il Centro ricorsi affronterà una serie di controversie, come molestie e intimidazioni, disinformazione, incitamento all’odio e immagini e video alterati”, spiega Hughes.
Il team di revisori esperti delle policy delle piattaforme richiederà alla piattaforma (per ora Instagram, TikTok o YouTube) il post in questione e tutti i dati ad esso associati. Con queste informazioni valuteranno se la decisione presa è stata coerente con le loro politiche. “A seconda della complessità, della lingua, della situazione, del contesto, della piattaforma e del tipo di contenuto, il caso viene assegnato a colleghi diversi. Prendono una decisione. Se si tratta di un caso complesso, possiamo svolgere altri livelli di revisione. Alla fine emetteremo una decisione che, ci tengo a sottolinearlo, non è vincolante”, sottolinea Hughes, anche se aggiunge che la società dovrà segnalarlo all’autorità di regolamentazione, che prenderà nota delle azioni.
Tale processo dovrà svolgersi entro 90 giorni dalla presentazione del reclamo al Centro Appelli. Nel caso in cui l’utente non sia soddisfatto della decisione dell’agenzia, può sempre adire il tribunale.
Guasti del sistema
Ogni social network è responsabile di ordinare ciò che accade nel suo cortile. La moderazione dei contenuti è una delle parti più delicate del tuo lavoro. Più una piattaforma ha successo, più traffico avrà e più è probabile che alcuni utenti abbandonino. Le reti utilizzano una combinazione di mezzi automatici e manuali per cercare di rilevare contenuti problematici.
“Se consideriamo questo lavoro come una piramide, alla base ci sono metodi di revisione automatica dei contenuti, che in genere rilevano molti, molti post che violano gli standard”, afferma Hughes. Senza questi strumenti, sostiene, i social network, alcuni dei quali accumulano centinaia di milioni di commenti ogni giorno, sarebbero un salasso.
Proseguendo con la piramide, verrebbero poi i metodi di moderazione manuale, “importanti nei casi più complessi o subdoli”, e poi il Centro ricorsi. Poi arriverebbero i tribunali e, al vertice, la Commissione con le sue multe. “Speriamo di poter contribuire a rendere più vivibile la vita sui social network”, afferma il britannico.
Cosa puoi aspettarti da questa nuova organizzazione? Gli esperti consultati sono cauti e la maggior parte preferisce aspettare di vedere come funziona prima di valutarlo. “In teoria, il Centro ricorsi dovrebbe alleviare l’impasse delle risoluzioni pendenti e introdurre esperti indipendenti nel processo di revisione dei contenuti. “Mi sembra interessante”, dice la professoressa Carmela Ríos, esperta di social network, giornalismo mobile e disinformazione. Tra qualche mese vedremo se sarà così.