Tutte le notizie

L’effetto dei pregiudizi LGBTIQ+ sull’intelligenza artificiale: “Siamo costretti a evitare la parola ‘queer’ nei messaggi” | Tecnologia


Arjun Subramonian (Stati Uniti, 24 anni) è cresciuto per caso in California, luogo noto per fascino di Hollywood e soprattutto per essere la mecca dell’innovazione tecnologica. Lui Stato d’oro È il luogo di nascita di centinaia di industrie informatiche riunite nella Silicon Valley, un ambiente che lo ha portato a immaginare nella sua infanzia come i computer avrebbero alimentato le automobili all’avanguardia che gli esseri umani avrebbero guidato in futuro. Ma qualcosa è cambiato nella percezione di Subramonian mentre studiava Informatica all’Università della California. All’epoca si dichiarò apertamente gay e pensava quotidianamente all’emarginazione del gruppo LGBTIQ+, che nello spazio tecnologico rappresenta il 20% in meno. “Esistono grandi modelli linguistici addestrati con le informazioni provenienti da Internet. E sappiamo tutti che se sei una donna, nera o omosessuale, quel posto sarà molto tossico per te”, riflette sulla teoria algoritmica o apprendimento automaticouna serie di pregiudizi indesiderati che colpiscono i sistemi di intelligenza artificiale generativa (AI).

Il machine learning non è esente da risultati distorti che fanno cadere come dardi centinaia di distorsioni contro gruppi tradizionalmente esclusi dalla società, che allo stesso tempo sono sottorappresentati nelle discipline. STELO, l’acronimo inglese di scienza, tecnologia, ingegneria e matematica. Subramonian è uno dei principali promotori di Queer in AI, un’organizzazione emersa a metà del 2020 per rendere visibile la diversità nella produzione scientifica con attivisti distribuiti in più di 47 paesi in tutto il mondo. “La censura è uno dei danni più grandi che vedo nel breve termine”, avverte.

Subramonian ricorda che durante la pandemia gli attivisti si incontravano su una piattaforma di messaggistica chiamata Rocket Chat. Quando stavano cercando di parlare tra loro, si sono resi conto che il termine queerper qualche motivo, non veniva inviato. “Siamo stati costretti a evitare quella parola perché impediva l’invio dei messaggi”, afferma. Ciò si verifica, secondo Subramonian, perché esistono elenchi di blocchi che moderano i contenuti generati dagli utenti in modo che siano conformi alle linee guida e alle politiche della piattaforma. È un processo digitale in grado di filtrare e gestire dati da testi, immagini, video e persino streaming live. Vengono spesso riutilizzati per filtrare i termini queer dei dati di addestramento dell’IA, come i modelli linguistici di grandi dimensioni.

Arjun Subramonian ha un dottorato di ricerca in informatica presso l'Università della California (UCLA).
Arjun Subramonian ha un dottorato di ricerca in informatica presso l’Università della California (UCLA).Esha Krishnamoorthy

“Alcune parole vengono spesso identificate come inappropriate”, spiega. Fino al 2012, ad esempio, Google considerava il termine bisessuale una forma di pornografia. I dati sono la materia prima dell’intelligenza artificiale e, se addestrata con informazioni parziali, la macchina può fornire risposte piuttosto limitate. Una situazione di questo tipo è capitata a Ilia S. (Russia, 29 anni), una persona transgender e attivista per i diritti umani residente in Thailandia che ha lasciato il suo paese natale dopo lo scoppio della guerra in Ucraina nel 2022. “La mia voce è molto androgina, il tono spesso oscilla e mi confondono con un’anziana e in alcuni casi con mia madre», dice l’avvocato, che sceglie di non rivelare il suo nome completo per tutelare la sua incolumità.

Il momento più angosciante che ha vissuto con un sistema di intelligenza artificiale è stato con la sua banca, quando viveva in Russia. Ho dovuto verificare una transazione che non è andata a buon fine. Il dirigente della banca iniziò a fargli domande specifiche e insolite, come il suo luogo di nascita e quanto saldo aveva a disposizione sul conto. “Non sei tu”, è stato il messaggio che ha ricevuto, poiché quella era la conclusione del sistema di riconoscimento vocale AI. L’avvocato ha poi ricevuto la minaccia di bloccare la sua carta per frode. “Stavo quasi piangendo perché non potevo provare che ero io”, dice. «Adesso c’è la possibilità di fare videochiamate per confrontare il proprio volto con la foto, ma su molte piattaforme non è così», chiarisce.

La censura di queer

Le distorsioni dei contenuti possono causare risultati dannosi e fuorvianti, intenzionali o meno, su Internet. Arjun Subramonian ha avuto una tale esperienza con la sua biografia. Una volta si è imbattuto in un testo creato con l’intelligenza artificiale generativa che raccoglieva tutte le sue informazioni online. Il problema era che aveva i pronomi sbagliati, dato che è una persona non binaria. L’errore è noto come misgenderun fenomeno che colpisce la popolazione transgender e intersessuale. “Il contenuto è monitorato ed è fuori dal tuo controllo. Ciò genera molta censura con l’apparenza queer della tua identità”, riflette.

Per Ilia S. si tratta di un problema universale di cui soffrono le persone trans che soffrono di difficoltà di questo tipo. Il giurista russo opera come attivista dal 2013, lo stesso periodo in cui Vladimir Putin ha promulgato la legge contro la propaganda LGBTIQ+. Da quando la misura è in vigore, la quantità di contenuti su questi argomenti sui siti web russi è andata scomparendo, cosa che ha colpito anche i sistemi di ricerca dei libri delle biblioteche pubbliche. “Se inserisci determinati termini relativi ai contenuti LGBTIQ+, non puoi trovare nulla perché i titoli sono stati rimossi”, afferma.

Ritratto di Ilia S. con l'ultima versione di Midjourney. Spesso l’IA tende a interpretare il suo volto come quello di qualcuno più anziano nonostante abbia 29 anni.
Ritratto di Ilia S. con l’ultima versione di Midjourney. Spesso l’IA tende a interpretare il suo volto come quello di qualcuno più anziano nonostante abbia 29 anni.A metà viaggio

Altri difetti rilevati dagli esperti riguardano i sistemi di riconoscimento facciale, ovvero strumenti in grado di assimilare i volti delle persone attraverso sesso, età e caratteristiche facciali. Anche il volto di Ilia non viene letto correttamente con alcune di queste app, come MidJourney. È un software che genera immagini dal testo e ora con la funzione Riferimento ai personaggipuoi farlo anche con foto di volti umani. In una versione precedente di questo programma, non era possibile elaborare il volto.

“A volte queste app leggono la mia faccia come quella di una persona anziana o generano mostri. Quando Midjourney ha introdotto il riferimento al personaggio, tutto è migliorato molto”, afferma.

Né buono né cattivo

Sebbene l’intelligenza artificiale sia in grado di riprodurre l’omofobia, il machismo o il razzismo – uno studio dell’Università di Deusto lo metteva già in guardia nel 2023 -, in realtà non è né buona né cattiva, dice Cristina Aranda (Madrid, Spagna, 48 anni), PhD in Linguistica Teorica e co-fondatore di Big Onion. “È come la mia lavatrice, decido io quale programma mettere e la maggior parte delle aziende che prendono le decisioni sono composte da uomini eterosessuali di mezza età, educati nelle stesse università e che probabilmente fanno barbecue insieme”, dice ironicamente.

Cristina Aranda ha un dottorato in Linguistica Teorica e Applicata presso l'Università Autonoma di Madrid.
Cristina Aranda ha un dottorato in Linguistica Teorica e Applicata presso l’Università Autonoma di Madrid.Fran Ferrer

L’esperto, che lavora con le aziende per automatizzare i processi con il linguaggio, ritiene che il settore tecnologico abbia bisogno anche di profili umanistici. “Non c’è niente di più filologico della parola”, dice. In questa linea Adio Dinika (Zimbabwe, 33 anni), politologo e ricercatore presso il Distributed Artificial Intelligence Research Institute (DAIR), pensa che “non è uno strumento che inventa cose”, ma piuttosto un prodotto in cui un bianco prevale la visione dell’uomo: “La Silicon Valley è venuta a determinare l’agenda dell’IA”.

Qualche anno fa, Aranda ha seguito un corso su come aiutare i marchi a posizionarsi nei motori di ricerca quando era disoccupato e lì ha avuto un’illuminazione. “Non avevo capito che quando cerchiamo su Internet scriviamo parole. Google è ancora un motore di ricerca in qualche modo lessicale-semantico”, afferma. Aranda si riferisce, in termini semplici, al vocabolario, alla gerarchia dei significati e all’interpretazione delle parole effettuata dalle piattaforme.

Adio Dinika, è un ricercatore DAIR. L’azienda è stata fondata da Timnit Gebru, un ex lavoratore di Google licenziato nel 2020 per aver sollevato questioni etiche legate al razzismo nell’intelligenza artificiale.
Adio Dinika, è un ricercatore DAIR. L’azienda è stata fondata da Timnit Gebru, un ex lavoratore di Google licenziato nel 2020 per aver sollevato questioni etiche legate al razzismo nell’intelligenza artificiale.FOTOGRAFIA NAJOS

L’80% dei dati presenti su Internet non sono strutturati, come i post sui social media, la videosorveglianza o i dati meteorologici, ed è importante che anche altri professionisti, come psicologi o antropologi, siano coinvolti nel processo di classificazione. “Questi sistemi sono intelligenti, ma sorprendentemente stupidi perché mancano di questa intelligenza sociale. Dai! Mancano strade”, sottolinea Aranda.

C’è un feudalesimo tecnologico e sono le grandi aziende che “stanno decidendo cosa fare con quell’intelligenza artificiale”, aggiunge. Ilia, dal canto suo, ritiene che stabilire un quadro normativo universale “sia molto difficile” per evitare questi problemi. Al contrario, gli altri esperti consultati concordano sulla necessità di stabilire alcuni parametri per affrontare questi pregiudizi.

“Gran parte della tecnologia che vediamo è sviluppata da aziende basate sul capitalismo della sorveglianza. La popolazione è sottoposta alle decisioni di questi sistemi e solo per questo motivo penso che sia molto importante”, conclude Arjun Subramonian.



source

Leave a Response

Luca

Luca

Luca
Salve, mi chiamo Luca e sono l'autore di questo sito con utili consigli di cucina. Sono sempre stato affascinato dalla cucina e dagli esperimenti culinari. Grazie a molti anni di pratica e all'apprendimento di diverse tecniche culinarie, ho acquisito molta esperienza nel cucinare diversi piatti.