La soppressione della verifica e della moderazione sulle reti aumenta l’odio e le molestie, avvertono gli esperti | Tecnologia
L’acquisto di Twitter da parte di Elon Musk, braccio destro del prossimo presidente degli Stati Uniti, Donald Trump, ha trasformato la piattaforma che il miliardario ha ribattezzato X in una giungla senza regole in nome della presunta libertà di espressione. Uno studio condotto dalla City St. George’s School of Science and Technology, Università di Londra, in nove paesi, tra cui la Spagna, ha sottolineato che X è diventata in soli due anni la rete di abusi o abusi (abuso) politico, dove gli avversari, i dissidenti o i moderati vengono relegati per trattarli come “nemici”. Le meta reti (Facebook, Instagram e Threads) seguono questi passaggi rimuovendo il controllo dei fatti e rilassando la moderazione dei contenuti. “Le conseguenze di questa decisione saranno un aumento delle molestie, dell’incitamento all’odio e di altri comportamenti dannosi sulle piattaforme di miliardi di utenti”, avverte Alexios Mantzarlis, direttore dell’area tecnologica Safety, Trust and Protection della Cornell University. Poche organizzazioni difendono la misura.
Il ricercatore della Cornell, che ha partecipato alla rete internazionale di verifica dei fattievidenzia che la deriva di Meta, fondata e diretta da Mark Zuckerberg, è duplice: non solo smette di verificare i dati per identificare le bufale e delega il proprio controllo agli utenti, ma apre anche le porte ai contenuti più suscettibili di generazione discorso di odio. Lo conferma il nuovo direttore degli affari globali della multinazionale, Joel Kaplan: “Stiamo eliminando una serie di restrizioni su questioni come l’immigrazione, l’identità sessuale e il genere che sono oggetto di frequenti discorsi e dibattiti politici. Non è giusto che le cose si possano dire in televisione o al Congresso, ma non sulle nostre piattaforme”.
Mantzarlis è molto critico nei confronti della mossa: “Oltre a porre fine al programma di verifica dei fatti, Zuckerberg ha anche annunciato un approccio più permissivo alla moderazione dei contenuti, quindi Meta non cercherà in modo proattivo contenuti potenzialmente dannosi in un’ampia gamma di domini”. A seconda di come verrà applicata, le conseguenze di questa decisione saranno un aumento delle molestie, dell’incitamento all’odio e di altri comportamenti dannosi”.
Meta ha sostenuto che la moderazione dei contenuti e il programma di verifica dei fatti hanno comportato “censura”, pregiudizi e limiti alla libertà di espressione, qualcosa che la rete internazionale di verificatori di fatti nega categoricamente.
Anche il ricercatore della Cornell respinge le argomentazioni e assicura che Mark Zuckerberg dispone di dati raccolti in otto anni che supportano il programma anti-hoax e i vantaggi nel controllo dei messaggi indesiderati. “Tuttavia”, si lamenta, “invece di condividere prove concrete, ha scelto di imitare Elon Musk e promettere libertà di espressione per tutti”.
“Il programma [de moderación] non era affatto perfetto e i fact-checker hanno senza dubbio sbagliato una certa percentuale delle sue etichette. [3,5%, según las auditorías de Meta]. Ma dobbiamo essere chiari sul fatto che l’iniziativa di Zuckerberg di eliminare i fact checker è una decisione politica [politic]non di principi [policy]”.
Questa affermazione di Mantzarlis si riferisce alla svolta radicale di Meta dopo l’elezione di Trump e la nomina di Musk a braccio destro del prossimo presidente. In effetti, la rete X è stata una delle prime ad accogliere i suoi concorrenti in un ecosistema di comunicazione sociale in cui il populismo è cresciuto in tutto il mondo.
Angie Drobnic Holan, giornalista, scrittrice e membro dell’International Fact-Checking Network, è d’accordo con il professore della Cornell: “È un peccato che questa decisione sia il risultato di un’estrema pressione politica da parte della nuova amministrazione e dei suoi sostenitori”.
Per Drobnic Holand, i verificatori dei fatti sono stati imparziali e trasparenti, quindi mettere in discussione questa obiettività, a suo avviso, “proviene da coloro che ritengono di dover essere in grado di esagerare e mentire senza confutazioni o contraddizioni”.
“Questa decisione [la supresión de la verificación] danneggerà gli utenti dei social media che cercano informazioni accurate e affidabili per prendere decisioni sulla loro vita quotidiana e sulle interazioni con amici e familiari. Il giornalismo fact-checking non ha mai censurato o rimosso pubblicazioni; ha aggiunto informazioni e contesto ad affermazioni controverse e ha sfatato contenuti falsi e teorie del complotto”, conclude Drobnic Holan.
Contro il provvedimento si esprime anche Tal-Or Cohen Montemayor, fondatore e direttore di CyberWell, organizzazione che combatte l’odio online ed è specializzata nella lotta all’antisemitismo. A suo avviso, la decisione di Meta rappresenta “il deterioramento intenzionale delle migliori pratiche di fiducia e sicurezza” in un ambiente in cui lo specialista osserva “prove crescenti di come l’incitamento all’odio, i contenuti provocatori e le molestie causino danni al mondo reale”.
“Il cambiamento [en Meta] “Significa una cosa, molto in linea con la tendenza sia nella quantità che nella qualità dei contenuti che abbiamo visto su X da quando Musk ha acquisito Twitter: più incitamento all’odio, più contenuti politicizzati, più nicchie e risposte meno efficaci da parte delle piattaforme” aggiunge Cohen.
Il fondatore di CyberWell respinge anche l’argomentazione di Meta sulla facilitazione dei diritti di opinione e sull’eliminazione della presunta censura: “Questa non è una vittoria per la libertà di espressione. L’unico modo per evitare la censura e la manipolazione dei dati da parte di qualsiasi governo o azienda sarebbe quello di istituire requisiti legali e riforme sulle Big Tech in modo che modifichino i social network e rispettino i requisiti di trasparenza”. “La risposta non può essere meno responsabilità e meno investimenti da parte delle piattaforme”, conclude.
A favore di Meta
Sebbene la maggior parte degli specialisti della comunicazione sociale sia contraria alla nuova misura, la decisione di Meta ha trovato un certo sostegno, oltre all’accoglienza riservata da X, il suo concorrente nel mercato della rete, motivato dalla sottomissione di Meta all’ideologia di Elon Musk.
In questo senso, l’organizzazione Foundation for Individual Rights and Expression (FIRE) ha celebrato la decisione di Zuckerberg. “Meta offre ai suoi utenti ciò che desiderano: una piattaforma di social media che non sopprima i contenuti politici né utilizzi verificatori di fatti dall’alto verso il basso. “Si spera che questi cambiamenti si traducano in decisioni di moderazione meno arbitrarie e in una maggiore libertà di espressione sulle piattaforme Meta”, afferma la fondazione.
Il consigliere del FIRE Ari Cohn sostiene che la decisione è conforme al primo emendamento della Costituzione degli Stati Uniti, che garantisce la libertà di espressione. Per il membro di questo gruppo, la misura di Meta “tutela le opzioni editoriali delle società di social media sui contenuti delle loro piattaforme”. “È positivo che cerchino volontariamente di ridurre pregiudizi e arbitrarietà nel decidere quali contenuti ospitare, soprattutto quando promettono agli utenti una cultura di libertà di parola come fa Meta”, sostiene Cohn.
Ciclo di odio e indignazione
Tuttavia, diversi studi indicano che questa concezione della libertà di espressione senza moderazione genera un circolo vizioso che promuove i contenuti più “oltraggiosi” e relega i contenuti più “affidabili”, motivo per cui la previsione della maggior parte degli esperti delle reti sull’aumento nell’incitamento all’odio e nella disinformazione.
È la conclusione di uno studio pubblicato su Scienzache avverte che i post sui social media contenenti disinformazione provocano più “indignazione morale (un misto di disgusto e rabbia)” rispetto ai post con informazioni affidabili, e che l’indignazione facilita la diffusione di notizie false perché gli utenti sono “più propensi a condividerle senza leggerle”. per rafforzare le loro posizioni morali o la loro lealtà verso i gruppi politici”, spiega Killian L. McLoughlin, del Dipartimento di Psicologia dell’Università di Princeton.
E arriva la ruota della selezione automatica dei contenuti dalle reti in cerca di traffico. “Dato che l’indignazione è associata a un maggiore coinvolgimento online, è probabile che la disinformazione che evoca indignazione si diffonda ulteriormente, in parte a causa dell’amplificazione algoritmica di contenuti accattivanti”, scrivono i ricercatori.