Site icon La terrazza Mongardino

La polizia ha arrestato uno sfacciato creatore di video porno: Stava usando l’intelligenza artificiale per sfruttare le sembianze delle celebrità per i contenuti!

La polizia sudcoreana ha arrestato un uomo che ha creato più di 4.300 video deepfake di celebrità femminili con contenuti sessuali e li ha venduti online. Lo riferisce TASR sulla base di un rapporto dell’agenzia di stampa Jonhap. L’uomo sudcoreano ha creato 4.313 video pornografici falsi utilizzando l’intelligenza artificiale (AI) e ha guadagnato quasi 2.600 euro vendendoli tra gennaio e marzo.

La polizia ha anche arrestato un uomo cinese accusandolo di aver distribuito 14.526 video a contenuto sessuale, tra cui 20 deepfake di celebrità. L’uomo ha distribuito i video attraverso un sito web pornografico illegale che ha gestito dal giugno 2023 al settembre 2024. Ha guadagnato poco meno di 95.000 euro. Questa settimana, l’ufficio del procuratore dovrebbe occuparsi del suo caso e perseguire non solo i complici dell’uomo in Cina, ma anche gli utenti del suo sito web.

Il termine deepfake si riferisce a contenuti audiovisivi non autentici creati dall’intelligenza artificiale. In alcuni casi, è difficile distinguerli dalla realtà e danno l’impressione che il contenuto sia reale. La manipolazione di contenuti audiovisivi imita volti, voci e azioni su video, confondendo il confine tra realtà e inganno.

Exit mobile version