La Procura di Cosenza ha aperto un fascicolo contro ignoti per il reato di diffamazione a mezzo internet a seguito di tre casi di deepfake segnalati alle autorità competenti e riguardanti scatti di minorenni vestite poi trasformate con l’utilizzo di programmi di editing in foto di nudo.
Il fatto – come riportano la Gazzetta del Sud e l’Altravoce – Il Quotidiano – è accaduto ad Acri, comune del Cosentino, dove i carabinieri del Comando provinciale, insieme ai colleghi del posto, hanno dato seguito ad una serie di perquisizioni, anche di apparecchi informatici di proprietà di alcuni giovani del luogo, per ricostruire la rete della diffusione delle immagini diffuse sul web.
Oltre 200 sarebbero gli adolescenti vittime inconsapevoli di una manipolazione digitale a sfondo sessuale, per mano di altri minori, coetanei, compagni di scuola per un totale di circa 1200 le immagini modificate attraverso il software dell’intelligenza artificiale con i volti di ragazzi e ragazze.
Secondo quanto ricostruito, il responsabile dell’accaduto avrebbe generato scatti osé, rendendosi artefice della pratica del deepfake, tecnica per la sintesi dell’immagine umana fondata sull’intelligenza artificiale e usata per combinare immagini e video esistenti con prodotti non autentici.
Ad accorgersi di quanto stava accadendo sarebbe stato, per puro caso, il genitore di una delle vittime che, in rete, si sarebbe trovato davanti ad un’immagine modificata con il volto della propria figlia. Immediata la denuncia, a cui hanno fatto seguito decine di altri esposti presentati dai familiari di altri minori coinvolti.
Che cos’è il Deepfake
Il deepfake è una tecnica per rielaborare immagini, video e audio fondata sull’intelligenza artificiale, usata per combinare e sovrapporre immagini e video esistenti con video o immagini falsi con una tecnica di apprendimento automatico, conosciuta come rete antagonista generativa.
“Il Deepfake è tecnologia basata su un’IA avanzata che crea media realistici, ma falsi, per scopi di attacco e truffa: pensiamo a immagini di persone in cui il volto viene sostituito o agli audio ingannevoli che replicano la voce di qualcuno che conosciamo”, afferma Vincenzo Ciancaglini, ricercatore senior sulle minacce di Trend Micro.
I Deepfake sono apparsi le prime volte nel 2017. Trend Micro li ha investigati fin dall’inizio, producendo i suoi primi report sul fenomeno nel 2019-2020. Uno dei primi casi è stato descritto nel Regno Unito: il truffatore aveva utilizzato un Deepfake audio per attaccare un’azienda clonando la voce di un top executive per chiedere un bonifico.
“Allora era una tecnologia emergente, che richiedeva risorse tecniche e tempo, ma oggi i software si comprano con 100-200 dollari sul dark web e danno accesso a servizi e applicazioni per creare i Deepfake. E intanto la qualità dei fake è più alta e gli attacchi, verso imprese e PA, sono aumentati”, dichiara Ciancaglini.