Site icon La terrazza Mongardino

La disinformazione elettorale, le armi e l’incitamento all’odio possono restare fuori dalla sorveglianza di Meta – 15/01/2025 – Power


UN La risposta di Meta al governo Lula (PT) ha incluso solo una nuova categoria nell’elenco degli argomenti in cui afferma che continuerà a utilizzare sistemi automatizzati per rilevare possibili violazioni delle proprie regole, uno dei tanti argomenti nel recente annuncio dell’azienda sulle modifiche alle sue politiche di moderazione dei contenuti.

Oltre a “terrorismo, sfruttamento sessuale minorile, droga, frode e truffe”, definiti “altamente gravi” in un precedente comunicato aziendale, l’unico argomento aggiunto alla lista sono stati i contenuti che incoraggiano il suicidio e l’autolesionismo.

La società, tuttavia, finora non ha divulgato né fornito ulteriori informazioni su quelle che considererà violazioni di “bassa gravità”, che dipenderanno quindi da una segnalazione da sottoporre a moderazione.

Argomenti come la disinformazione elettorale e sui vaccini, l’incitamento all’odio, il bullismo e le molestie; le restrizioni sulle armi e l’incitamento alla violenza sono alcuni di quelli che potrebbero finire per essere esclusi da questo monitoraggio automatizzato.

Interrogato da Foglioin merito a quali di queste categorie, infatti, non avranno più il rilevamento automatizzato, il Meta ha detto che non avrebbe commentato.

Sebbene la policy su ciascun argomento definisca cosa è consentito o meno sulla piattaforma, il modo in cui viene effettuata questa moderazione (in modo proattivo o dopo la segnalazione) dà il tono a quanto verrà rimosso.

Gli esperti consultati dal rapporto sottolineano che la decisione rappresenta sia un cambiamento nelle operazioni dell’azienda, che aveva investito molto nell’automazione, sia un problema, dato il volume di contenuti pubblicati sulle piattaforme di Meta (FacebookInstagram e Threads) in ogni momento.

Mettono anche in dubbio quanto personale avrà l’azienda per analizzare i reclami senza automazione.

Il 7, il fondatore dell’azienda, Mark Zuckerberg, ha pubblicato un video in cui annunciava modifiche alle politiche di moderazione dei contenuti, in quello che è stato visto come un cenno al presidente eletto degli Stati Uniti, Donald Trump. La decisione prevedeva la fine del programma di verifica dei fatti.

Posteriormente, Zuckerberg ha inoltre annunciato che taglierà il proprio personale.

Divulgare la dimensione dei team di moderazione per ciascuna lingua, compreso il lavoro esternalizzato, è una questione sulla quale l’azienda non fornisce trasparenza.

Un argomento che l’azienda ora evidenzia più chiaramente e che non dovrebbe più fare affidamento sul rilevamento automatico è l’incitamento all’odio. Modificando queste regole, Meta ora consente, ad esempio, che gli utenti associano la transessualità e l’omosessualità a malattie mentali.

In un rapporto pubblicato da Meta sulla sua performance in Brasile durante il periodo elettorale del 2024, si afferma di aver rimosso più di 2,9 milioni di contenuti che violavano le sue politiche su bullismo e molestie, incitamento all’odio, violenza e incitamento.

Ha inoltre rivelato che, in caso di bullismo, oltre il 95% degli stessi sono stati individuati dall’azienda stessa e allontanati prima che venisse fatta qualsiasi denuncia. Negli altri, questa percentuale era superiore al 99%.

La società non specifica se ha rimosso i contenuti in base alla sua politica di disinformazione elettorale. Altri 8,2 milioni di contenuti sono stati contrassegnati come informazioni false sulla base di fact check effettuati con i partner.

Andressa Michelotti, dottoranda presso l’UFMG (Università Federale di Minas Gerais) e membro del Governing the Digital Society presso l’Università di Utrecht, nei Paesi Bassi, sottolinea che il cambiamento trasferisce l’onere di identificare quale sia una possibile violazione alla normativa utente.

Per lei, che ha già lavorato nel settore tecnologico, una questione importante è come questo approccio possa influenzare la circolazione dei contenuti nei mercati non anglofoni. “Adotteranno la revisione manuale per tutte le lingue? Storicamente no [adotavam]. Ci sono molte domande nell’aria”, dice.

Andressa si interroga anche su cosa sarebbe considerato terrorismo nel caso del Brasile e sottolinea che, per come è stato rivelato dalla società, restava aperto, ad esempio, se i gruppi neonazisti sarebbero stati mantenuti o meno tra le violazioni con rilevamento automatico.

Nella tua risposta a AGU (Procuratore generale dell’Unione) presentato lunedì (13), Meta menziona solo il terrorismo, un tema che fa parte della sua politica su “organizzazioni e individui pericolosi”, e che comprende altri aspetti, come le “ideologie odiose”, che comprende Nazismo, supremazia bianca e nazionalismo bianco.

Clarice Tavares, coordinatore della ricerca presso InternetLab, valuta che, sebbene l’automazione della moderazione incorre effettivamente in errori in quanto non è in grado di comprendere un contesto completo, l’opzione di rimuoverla dall’uso per una parte delle politiche non è la strada appropriata.

Per lei è necessario pensare a come migliorarlo e allo stesso tempo investire in robusti sistemi di revisione umana.

“Non avere questo rilevamento proattivo da parte di strumenti automatizzati è davvero una sfida”, afferma, “Stiamo parlando di milioni e milioni di contenuti, provenienti da molte lingue”.

Fonti ascoltate da Foglio su riserva e che hanno già lavorato sulla piattaforma sottolineano che, oltre alla mancanza di trasparenza verso il pubblico esterno riguardo alla portata dei cambiamenti annunciati, è possibile che i team stessi dell’azienda non li abbiano ancora ben definiti, considerando che non vi è alcun segno che il tema abbia subito una costruzione interna prima di essere annunciato.


Politiche sui meta contenuti
Definisce cosa è consentito o non consentito sulla piattaforma in merito a ciascun argomento

Processo di moderazione
Fino ad allora, Meta afferma di aver utilizzato sistemi automatizzati per tenere traccia delle violazioni di tutte le politiche, effettuando una moderazione proattiva

Cosa cambia
L’azienda concentrerà ora l’uso di questi sistemi solo sul rilevamento di violazioni “ad alta gravità”. Le violazioni di “bassa gravità” dipenderanno dalle segnalazioni degli utenti

Ciò che sarà ancora automatizzato
Ad oggi Meta ha reso noto che il terrorismo, lo sfruttamento sessuale minorile, la droga, le frodi e le truffe, così come l’incoraggiamento al suicidio e all’autolesionismo, rientrano nell’elenco delle violazioni gravi

Cosa dipenderà dalla denuncia
Meta non ha ancora rivelato cosa considera “bassa gravità”



source

Exit mobile version