La sessualizzazione AI della mascotte vaticana Luce e i limiti della regola 34 di internet: tutto può essere ‘pornografia’ | Tecnologia
Qualsiasi donna può essere sessualizzata senza consenso. Se il porno ha mai avuto dei limiti, anche se deboli, l’intelligenza artificiale (AI) li ha distrutti tutti. Le prime vittime furono famose, ma il proliferare di creazioni false che sembravano vere (deepfake) con strumenti la cui disponibilità si è moltiplicata per 40 in appena un anno e mezzo, secondo le Nazioni Unite, ha ampliato gli obiettivi. Ora qualsiasi politico, vicino di casa, compagno di classe o collega di lavoro può vedere la propria immagine violata. Una delle ultime vittime non è nemmeno reale. Si tratta di Luce, una mascotte creata da Simone Legno, co-fondatore di Tokidoki, che vuole rappresentare un giovane pellegrino del prossimo Giubileo (anno santo). In meno di 24 ore, pagine di creazioni basate sull’intelligenza artificiale l’hanno trasformata in un’icona sessuale, sostenendo che, secondo la “regola 34” non ufficiale di Internet, “tutto può diventare porno”.
L’intenzione del Vaticano era immacolata. Ha presentato la sua mascotte (Luce in italiano) il 30 all’inaugurazione del Padiglione della Santa Sede all’Expo di Osaka (Giappone) del prossimo anno come “simbolo di speranza e di fraternità” per i giovani, come ha spiegato l’arcivescovo Rino Fisichella, organizzatore del Giubileo . Ma in meno di 24 ore, le pagine di immagini realizzate con l’intelligenza artificiale (si evita la loro identificazione per non promuoverle) hanno aperto il trench giallo di Luce (il colore della bandiera vaticana) e l’hanno spogliata degli stivali macchiati di fango della strada per lasciarla solo con i suoi simboli cattolici e sottoporla a ogni tipo di ricreazione pornografica.
“Le donne sono i canarini nella miniera rispetto all’abuso dell’intelligenza artificiale. Non sarà solo la quattordicenne o Taylor Swift, saranno i politici, i leader mondiali, le elezioni. Siamo troppo pochi, è troppo tardi, ma possiamo ancora provare a mitigare il disastro che sta emergendo”, avverte Mary Anne Franks, professoressa alla George Washington University e presidente di Cyber Civil Rights.
La realtà gli dà ragione. Una pagina che raccoglie costantemente incidenti legati all’intelligenza artificiale indica fino a sei politici britannici vittime di pornografia deepfake per anni. L’ex candidata democratica alla presidenza degli Stati Uniti, Kamala Harris, ha le sue categorie sullo stesso sito che ha sessualizzato la mascotte vaticana ed è diventato bersaglio di violenza online.
Ma non solo politica. Lo stesso record di denunce di abusi sull’intelligenza artificiale rivela una scia di ragazze spogliate nude dai loro compagni di classe nelle scuole superiori sulla base di immagini reali pubblicate sui social network. E la vittima può essere chiunque, dal vicino di casa al collega di lavoro.
Il problema è tale che l’Agenzia delle Nazioni Unite per la salute sessuale e i diritti riproduttivi (UNFPA) dispone di un’unità specializzata sulla violenza di genere facilitata dalla tecnologia (TFGBV). Violenza di genere facilitata dalla tecnologia). Alexandra Robinson è una dei loro consulenti e avverte: “Il numero di strumenti di intelligenza artificiale disponibili per creare deepfake è passato da 5 a 200 negli ultimi 18 mesi, indicando che queste tecnologie e la condivisione non consensuale di immagini sintetiche sono sempre più utilizzate nella perpetrazione di violenza di genere sul posto di lavoro”.
Queste tecnologie [IA) y el intercambio no consensuado de imágenes sintéticas se utilizan cada vez más en la perpetración de la violencia de género en el ámbito laboral
Alexandra Robinson, asesora en violencia tecnológica (TFGBV) para Naciones Unidas
“Crear un video pornográfico deepfake de 60 segundos de cualquier persona usando solo una imagen facial clara lleva menos de 25 minutos y el coste es 0″, explica Robinson. Las víctimas, según detalla, son mujeres en el 99% de los casos y en todos los ámbitos.
En este sentido, Alexandra Robinson llama la atención sobre la extensión del problema: “Las personas no famosas son objetivos de la violencia de género en línea. Dondequiera que la tecnología esté disponible, se crea un espacio o una herramienta a través de la cual se puede perpetrar la violencia”. Lo avala con una investigación de 2021 que eleva al 85% las mujeres que, en todo el mundo, han presenciado o experimentado (38%) violencia en línea, principalmente personas racializadas, colectivo LGTBIQ+, políticas, jóvenes, activistas de los derechos humanos y periodistas, según la encuesta CNN As Equals y Plan International.
En todos los casos, el objetivo es la violencia sexual a partir de cosificar, denigrar, vulnerar el derecho a la propia imagen, intimidar e incluso extorsionar. Pero cuando la víctima es una política se añaden intentos de silenciar y dañar su reputación personal para, al mismo tiempo, según señala Robinson, “erosionar la confianza en las instituciones democráticas al utilizar la desinformación de género para disuadir a las mujeres de participar en la política”.
La polémica “regla 34″ de internet
La página con más recreaciones vejatorias de la mascota católica se ampara en una popular “norma” de internet, llamada “regla 34″: “Si algo existe, se puede pornografiar [recrear pornográficamente]”. A ciò si aggiunge quanto segue, che avverte che, se c’è qualcosa che non è stato trasformato in porno, lo sarà.
Ricard Martínez, direttore della Cattedra di Privacy e Trasformazione Digitale e professore all’Università di Valencia, lo smentisce nettamente: “Nessuna immagine può essere sessualizzata senza consenso, anche se si specifica che si tratta di una ricreazione. Ognuno di noi ha diritto alla propria immagine, alla vita privata e all’onore. Negli ambienti digitali dobbiamo capirlo da un punto di vista pratico e materiale. Usare l’immagine di qualcuno senza permesso per sessualizzarlo costituisce un comportamento illecito.”
Martínez ritiene che si tratti di tutto lo spettro che comprende contenuti umilianti, anche quelli che vogliono fare affidamento sul “atroppo divertente”, caricature con intento scherzoso o scherzoso.
Il giurista fa questa precisazione riferendosi alla sessualizzazione della mascotte vaticana: «È ovvio che la mascotte è protetta dai diritti di proprietà intellettuale, ma non è l’unica questione. Se si prende una mascotte che è l’emblema ufficiale di un’attività che, in questo caso, è di carattere religioso o sociale, e la si sessualizza, ridicolizzandola, da un lato si altera un’immagine soggetta a proprietà intellettuale ; Ma, inoltre, da un punto di vista materiale, non viene sessualizzato solo un animale domestico, ma ciò che rappresenta. In questo senso, la violazione dei diritti va ben oltre e incide direttamente sulla sfera dei diritti del gruppo che rappresenta”.
Nel caso della caricatura delle donne in campo politico, esiste un terreno differenziato tra l’esercizio della libertà di espressione per contribuire alla formazione di un’opinione pubblica libera e la sessualizzazione. “Si parlerebbe di comportamenti che ledono la sua immagine pubblica, il suo onore e la sua privacy e che, inoltre, la danneggiano gravemente e la vessano in modo strumentale. Inoltre si verifica un effetto moltiplicatore: come con la mascotte, non solo sessualizziamo la persona o il personaggio, ma anche tutto ciò che rappresenta”, avverte.
Come Alexandra Robinson, consigliera delle Nazioni Unite, e Anne Franks, professoressa della George University, Ricard Martínez mette in guardia dagli “effetti devastanti sulla convivenza politica e cittadina”. “L’intenzione evidente è quella di polarizzare l’opinione pubblica e generare alterazioni nell’ordine pubblico e costituzionale. Esiste quindi un ulteriore pericolo di generare rischi sistemici per la democrazia”, spiega.
In questo modo, il deepfake Non sono uno strumento meramente creativo, ma in molti casi anche criminale. E per evitare ciò, Martínez coinvolge non solo la responsabilità individuale, alla quale esige educazione digitale e sessuale, ma anche le piattaforme che forniscono servizi digitali che ne facilitano la creazione e la diffusione, obbligate per legge ad analizzare in modo proattivo ed evitare queste pratiche.
“C’è una sessualizzazione delle donne su Internet, un aumento dei comportamenti sessisti, un ritorno a una concezione reificata e strumentale delle donne come puri oggetti di piacere al servizio degli uomini in una spirale che dovrebbe essere estremamente preoccupante e motivare forti reazioni” , conclude.
Robinson è d’accordo: “Esistono diversi modi per cambiare la violenza contro le donne su Internet. In primo luogo, attraverso la legislazione e la politica [la experta destaca la eSafety de Australia]ma anche attraverso una maggiore attenzione all’alfabetizzazione digitale e all’applicazione della sicurezza”
Indica anche strumenti come StopNCII, che consente a chiunque di tracciare e cancellare immagini intime non consensuali, “ripulire il profilo digitale per garantire che queste non possano essere rintracciate, compresi i social network di amici e familiari”.