Gabriele Bavastro, ex dipendente TikTok: “L’1,3% degli account cancellati da TikTok sono quelli sotto i 13 anni” | Società
Quasi 3.000 video, con una media compresa tra i sette ei nove secondi ciascuno. Una clip, un’altra, per sette ore e 20 minuti. Così Gabriele Bavastro ha trascorso per quasi due mesi i suoi fine settimana, moderando i contenuti pubblicati su TikTok a Barcellona. Vive ancora lì, ma questo analista di dati 40enne, nato a Novi Liguri (Italia), non lavora più per l’azienda cinese. Quelle otto settimane risalivano al 2018 e nell’ultima valutazione che il suo manager gli aveva fatto prima del licenziamento, il suo livello di produttività era stato registrato come eccellente; A livello qualitativo, invece, lo hanno avvertito che il numero di errori era “un po’ alto”. Specializzato in marketing e statistica, prima di TikTok si è occupato di siti di viaggi e di gestione dei social media, ora è analista presso un’altra grande azienda tecnologica e si occupa di Colonizzazione dei social network. Il caso di TikTokuno dei capitoli del libro L’industria pornografica su Internet. Cause e conseguenze (Ottaedro), pubblicato lo scorso ottobre.
Come spiega Bavastro nel suo capitolo, incluso in questo lavoro sulle implicazioni del porno in Internet —coordinato dal ricercatore dell’Università delle Isole Baleari Lluís Ballester—, su TikTok vengono moderati circa 90 milioni di contenuti ogni trimestre “per non conformi alle linee guida sulla nudità e sui contenuti sessuali con adulti” e, dalla fine del 2022, si è registrato un aumento del 25% del numero di video cancellati su un social network in cui Gli adolescenti sono il pubblico target e conta già più di 1,6 miliardi di utenti attivi al mese.
Chiedere. Perché sei stato attratto dal lavorare in TikTok?
Risposta. Era un lavoro di basso livello, c’era molta rotazione ed era solo nei fine settimana, ma è stata l’occasione per imparare in modo approfondito come funziona un’azienda del genere da un reparto chiave, dove i filtri di ciò che resta e va vengono stabiliti.
P. Perché lo hanno cacciato?
R. Per me è un mistero, non ero l’unico. Penso che fosse per la sicurezza. Non potevi mai tenere il cellulare sul tavolo, le uscite USB del computer erano disabilitate, non potevi togliere in nessun caso nessun documento interno. Mi sono accorto che c’erano persone che riuscivano a ricavarne qualcosa, e per precauzione ne hanno cacciate parecchie. Non mi hanno dato ragioni. Presto ho capito che questo lavoro non faceva per me, otto settimane mi bastavano. Stava incidendo non poco sulla mia salute mentale, perché ci sono molti video, molto ripetitivi… Capita raramente di imbattersi in contenuti che ti colpiscono molto, ma, almeno, succede un paio di volte al giorno.
P. Com’era il lavoro del moderatore, ti venivano assegnati contenuti provenienti da una zona specifica del mondo?
R. Ci sono code di contenuti suddivisi in audio, video e foto, classificati per lingua e mercato. Parlo cinque lingue. Eravamo circa 200 a svolgere lo stesso lavoro: classificare il contenuto in un periodo compreso tra sette e nove secondi. Se qualcosa sollevava dubbi nella tua mente, consultavi i colleghi. Il livello di violenza doveva essere deciso. Ad esempio, nei contenuti pornografici per adulti, se non fossero molto espliciti, metteresti il tag VTS (in inglese, visibile a sé), in modo che solo la persona che lo aveva caricato potesse vederlo. Era considerata una violazione minore delle regole e l’obiettivo era evitare che diventasse virale o avesse un’ampia diffusione. Con contenuti più seri, in cui erano coinvolti bambini, il profilo è stato reimpostato, cancellando tutte le pubblicazioni da quell’account. Questi casi dovevano essere inoltrati a un responsabile e persino segnalati alla Guardia Civil se si trovava nel territorio nazionale. Se un account veniva reimpostato più di cinque volte, veniva eliminato.
P. Che tipo di video hai guardato?
R. La maggior parte di loro noiosi. Ad esempio, da adolescenti senza alcun interesse. Nel 90% dei casi non dovevi prestare loro molta attenzione. D’altronde quando saliva un minore porno morbido (soft porno) ci è stato chiesto di eliminarlo il più rapidamente possibile. Non sono consapevoli di quante persone possano vederlo e di quale uso possano fare di quel contenuto: ricattarli o individuarli come obiettivi vulnerabili per guadagnare la loro fiducia. [el llamado grooming, uno de los delitos online contra menores que más ha crecido en los últimos años]. Solo l’1% dei contenuti ti è rimasto toccato. Ricordo il video di una donna, immagino fosse dell’Africa centrale perché parlavano portoghese, che veniva accoltellata e alla fine le tagliarono la testa con un coltello. Vedi tanti dettagli e sai che è reale, immagini che non cancelli mai dalla tua testa. O uno in cui si poteva vedere un pollaio sullo sfondo, e poi la telecamera ingrandiva un bambino di sette o otto anni che violentava un pollo. Se sei un po’ sensibile, questo ti influenza, il cervello ha difficoltà a disconnettersi quando torni a casa. Ci veniva detto continuamente che era un lavoro duro, ma qualcuno doveva pur farlo.
P. L’età stabilita da TikTok per aprire un account è di 13 anni. Dopo quello che hai visto, pensi che sia un’età troppo bassa?
R. Molti non hanno nemmeno 13 anni. È stato molto difficile accertarlo: per cancellare un account l’azienda ci ha chiesto delle prove, ad esempio una dichiarazione vocale o scritta del minore che parlasse della sua età. Non esiste alcun meccanismo per verificarlo. Uno dei nostri obblighi era quello di identificare, selezionando una casella, tutti i video in cui appariva un minore di 13 anni e indicare se quel contenuto necessitava di una revisione. Ad esempio, un padre che caricava un video con il figlio senza elementi preoccupanti non costituiva un problema. Degli account cancellati da TikTok nel 2023, l’1,3% erano quelli sotto i 13 anni. Nessun’altra piattaforma offre tali informazioni. Il 49,3% dei contenuti moderati sui social network che ho analizzato – YouTube, Facebook, Instagram, Snapchat e TikTok – sono pornografici.
P. Nel capitolo del libro fornisce dati sulle politiche di trasparenza per la tutela dei minori sui diversi social network. Quale pensi che possa essere più pericoloso?
R. Con i dati a disposizione è impossibile saperlo. L’unico strumento per confrontare le loro prestazioni è con i loro rapporti sulla trasparenza e sono molto difficili da interpretare, a meno che non si conosca la terminologia dei loro manuali di moderazione. Non esistono regolamenti da parte delle autorità di regolamentazione pubbliche su come dovrebbero essere effettuate queste relazioni. Ad esempio, Snapchat ti fornisce un’informazione molto preziosa: la quantità di contenuti moderati per 10.000 video. [es la única red social en España que da tanto el recuento total de contenidos moderados como la distribución en las diversas categorías, por ejemplo, la categoría “contenido sexual” supone la mayor parte de las publicaciones eliminadas, un 68,87% del total].
P. Secondo il libro, su Snapchat, ciò che viene cancellato in relazione allo sfruttamento e agli abusi sessuali su minori è il 2,09%. Gli altri non danno questa informazione?
R. No, né analizzano i contenuti pornografici in cui compaiono adulti e minorenni. TikTok stabilisce tre livelli di pornografia nei suoi manuali: lieve (sono molto pubblicazioni morbidoin cui, ad esempio, danze erotiche, persone con pantaloncini o una minorenne che mostra la pancia), moderata (quando, ad esempio, più di un terzo dello schermo è occupato dal seno coperto o da qualche zona erotica del corpo), e grave (sesso esplicito o violenza sessuale). Se tutte le piattaforme offrissero questi dati si potrebbe fare un confronto sul pericolo per un minorenne.
P. Quali sono i video più cancellati da TikTok?
R. La categoria “tutela dei minori” rappresenta la percentuale più alta di video cancellati, il 30,6%. Comprende le sottocategorie di nudità e attività sessuale con minori (16,89%), attività dannose da loro svolte (10,55%), danni fisici e psicologici (1,56%) e seduzione (toelettatura) (0,85%) e lo sfruttamento sessuale (0,7%) dei minori. Altre sono “immagini di nudità e atti sessuali tra adulti”, che rappresentano il 14,7% dei pensionati, oppure “suicidio, autolesionismo e atti pericolosi”, il 3,1%. Qualsiasi video con contenuti di natura sessuale verrà eliminato. La maggior parte di quelli che ho moderato lo erano dilettante.
P. E quanto tempo ci vuole per eliminarli?
R. Il 71,1% dei video cancellati su TikTok scompare prima di essere visualizzato. Del restante 30%, l’89% ritira entro le prime 24 ore dalla pubblicazione.
P. Qual è il pericolo principale quando un minore carica contenuti intimi?
R. Adesso i chatbot – sistemi creati con l’intelligenza artificiale – si comportano come persone vere, cercano di guadagnarsi la fiducia dei minori in massa, non sono più 50 pedofili fuori casa, anche se ci sono anche quelli. Sono gruppi organizzati che rilevano e attaccano i tuoi conti a scopo di estorsione, ricevono anche commissioni per ogni minore catturato. Attraverso contenuti apparentemente innocui, come un minorenne la cui pancia è leggermente visibile, rilevano gli account e avviano la connessione. Identificano i profili attraverso hashtag salute mentale o autolesionismo e utilizzano persino filtri per rilevare condizioni antigeniche nella casa in cui è stato girato il video. Cercano persone non protette. I minori sono soliti registrare i video nel bagno di casa o nella camera da letto, spazi che considerano sicuri. Se pubblicano seminudi, gli estorsori potrebbero ricattarli in futuro per contenuti più rischiosi.
P. Qual è secondo te il modo più efficace per regolamentare?
R. Senza dubbio, i governi. Attualmente molte normative, come quelle europee, sono volontarie per le aziende tecnologiche e non esiste ancora un sistema efficace di verifica dell’età. I Paesi devono accordarsi e dare più valore alla tutela dei minori anche se, in parte, il diritto alla privacy degli utenti potrebbe essere in qualche modo violato. Devi essere coraggioso con questo argomento.