Tutte le notizie

La polizia ha arrestato uno sfacciato creatore di video porno: Stava usando l’intelligenza artificiale per sfruttare le sembianze delle celebrità per i contenuti!

La polizia sudcoreana ha arrestato un uomo che ha creato più di 4.300 video deepfake di celebrità femminili con contenuti sessuali e li ha venduti online. Lo riferisce TASR sulla base di un rapporto dell’agenzia di stampa Jonhap. L’uomo sudcoreano ha creato 4.313 video pornografici falsi utilizzando l’intelligenza artificiale (AI) e ha guadagnato quasi 2.600 euro vendendoli tra gennaio e marzo.

La polizia ha anche arrestato un uomo cinese accusandolo di aver distribuito 14.526 video a contenuto sessuale, tra cui 20 deepfake di celebrità. L’uomo ha distribuito i video attraverso un sito web pornografico illegale che ha gestito dal giugno 2023 al settembre 2024. Ha guadagnato poco meno di 95.000 euro. Questa settimana, l’ufficio del procuratore dovrebbe occuparsi del suo caso e perseguire non solo i complici dell’uomo in Cina, ma anche gli utenti del suo sito web.

Il termine deepfake si riferisce a contenuti audiovisivi non autentici creati dall’intelligenza artificiale. In alcuni casi, è difficile distinguerli dalla realtà e danno l’impressione che il contenuto sia reale. La manipolazione di contenuti audiovisivi imita volti, voci e azioni su video, confondendo il confine tra realtà e inganno.

Leave a Response

Luca

Luca

Luca
Salve, mi chiamo Luca e sono l'autore di questo sito con utili consigli di cucina. Sono sempre stato affascinato dalla cucina e dagli esperimenti culinari. Grazie a molti anni di pratica e all'apprendimento di diverse tecniche culinarie, ho acquisito molta esperienza nel cucinare diversi piatti.