In Sudcorea è allarme per deepfake porno, vittime giovani donne
Articolo Precedente
Articolo Successivo
Roma, 3 set. – In Corea del Sud c’è la percezione di una nuova emergenza che investe soprattutto le giovani donne: i deepfake, cioè le immagini di scene pornografiche che vedono inconsapevoli protagoniste ragazze le cui fattezze sono riprodotte con l’intelligenza artificiale, sono sempre più diffusi e le autorità si trovano di fronte alla difficoltà nell’affrontare una fattispecie di reato non ancora ben focalizzato. (Agenzia askanews)
Ne parlano anche altri giornali
Secondo un rapporto della startup USA Security Hero, la Corea del Sud è il Paese più preso di mira dalla pornografia deepfake: i suoi cantanti e attrici costituiscono il 53% degli individui ritratti (StartupItalia)
Quelle foto non sono mai state scattate, eppure nell'era dell'intelligenza artificiale basta un software per togliere i vestiti a chiunque. (Fanpage.it)
Si allarga il fronte delle indagini a livello mondiale dopo l’arresto in Francia di Parel Durov ora in libertà vigilata. La Corea del Sud apre un dossier per la diffusione di contenuti deepfake pornografici (CorCom)
Grazie alla sua elevata sicurezza, Telegram viene accusato di veicolare disinformazione e contenuti illeciti attraverso i gruppi chiusi. (Tom's Hardware Italia)
Lo ha dichiarato oggi il capo degli investigatori, secondo quanto riporta l'agenzia di stampa Yonhap."Come ha fatto la Francia, l'Agenzia di Polizia metropolitana di Seoul ha avviato un'indagine sull'entità aziendale di Telegram prima di procedere ufficialmente con l'incriminazione" ha dichiarato Woo Jong-soo, capo dell'Ufficio nazionale d'investigazione. (Tiscali Notizie)
LONDRA – Un nuovo spettro si aggira fra le donne della Corea del Sud: la paura di diventare il bersaglio di un deep fake pornografico. Ma a Seul qualcuno sostiene che lo spettro in realtà è vecchio e si chiama maschilismo: una società dove l’eguaglianza tra i sessi è ancora lontana e… (la Repubblica)