Contenuto sponsorizzato

Dai volti rubati per il porno a quelli sostituiti nelle registrazioni di videosorveglianza. Viaggio nel deepefake, "Ad occhio nudo impossibile distinguere il vero dal falso"

Prima puntata sul deepfake una tecnica che, sfruttando l'intelligenza artificiale, permette di sovrapporre il volto di una persona a quello di un'altra in un video. Basta un archivio fotografico e un po' di tempo e voilà, la bufala è servita. Il 96% di questi video è di tipo pornografico. L'Istituto di scienze della sicurezza di Trento: "Siamo noi stessi produttori involontari, e  incoscienti, di materiali che possono essere utilizzati"

Di Arianna Viesi - 03 novembre 2019 - 05:01

TRENTO. Il vostro volto inserito sul corpo di un attore o un'attrice porno senza che si possibile distinguere l'originale dal falso; un politico che insulta tutti e si distrugge la reputazione o magari dichiara guerra a un altro Stato realistico al 100%; la videocamera di sorveglianza di una banca che riprende un furto ma al posto del volto del ladro viene inserito quello di un'altra persona: sono, queste, tutte situazioni già realizzabili e che vengono ricondotte al fenomeno del deepfake. 

 

"Le implicazioni e i danni che questo fenomeno porta con sé - ci spiega Gabriele Baratto, ricercatore presso eCrime e Istituto di scienze della sicurezza dell'Università di Trento - sono molteplici, e toccano svariati settori. Il primo riguarda tutto quello che concerne la sfera dei personaggi pubblici: politici o persone esposte pubblicamente. Video simili creano un enorme danno d'immagine e possono orientare l'opinione pubblica. La seconda sfera riguarda il mondo del porno e i danni d'immagine che ne conseguono. Andare a dimostrare se ero o non ero io è una procedura complessa che può richiedere molto tempo. Il danno d'immagine, invece, è immediato".

 

 

È di qualche giorno fa il servizio de Le Iene sui cosiddetti deepfake (QUI VIDEO). Il deepfake è una tecnica che, sfruttando l'intelligenza artificiale, permette di sovrapporre il volto di una persona a quello di un'altra in un video. Vengono così create sequenze talmente accurate che, a occhio nudo, è impossibile capire si tratti di un falso.

 

Per creare un deepfake bastano delle foto, e un po' di tempo. Sul web esistono dei veri e propri archivi, chiamati "face-sets". Contengono migliaia e migliaia di foto di politici, attori ma, soprattutto, attrici. Prendiamone una, molto celebre: Emma Watson. In uno solo dei tanti archivi a lei dedicati sono caricate 33.605 immagini. Fotogrammi che ritraggono il suo volto: ad ogni età e con tutte le espressioni possibili. Bene, tutte queste immagini vengono usate dal programma per "attaccare" letteralmente la faccia dell'attrice a qualsiasi altro corpo. Uno scenario inquietante, insomma.

 

Fra qualche anno, probabilmente, sarà possibile creare film porno partendo da qualche manciata di foto. Basti pensare che, nell'ultimo anno, i deepfake sono raddoppiati passando dai circa 7.000 video del 2018 agli oltre 14.000 del 2019. Il 96% dei quali di tipo pornografico.

 

Il primo bersaglio sono, com'è facile intuire, le attrici. Più i materiali fotografici a disposizione sono numerosi e di buona qualità, più è facile creare questo tipo di contenuti. Ci sono forum e forum specializzati in "face-sets". Se non esiste l'archivio che ci interessa, una guida ci spiega come farlo. Basta avere tempo e immagini, tutto qui.

 

L'intelligenza artificiale continua ad affinare tecnica e strumenti. Ad esempio, nel caso in cui ci sia discrepanza tra il colore del volto sovrapposto e quello del corpo originale, i software sono in grado di trovare una tonalità media ed uniformare l'incarnato. Un'arma potente, e drammatica. Se, con il passare del tempo, questa tecnica fosse affinata (cosa che molto probabilmente accadrà) qualsiasi persona, qualsiasi ragazza potrà essere schernita, stalkerizzata, ricattata. Non solo un (enorme) danno d'immagine, ma una potenziale tragica deriva con risvolti (anche) giuridici. Come sarà possibile sostenere in un tribunale che la persona X che si vede in un filmato sia o non sia realmente quella persona?

 

"Il fenomeno è una delle cose di cui abbiamo iniziato ad occuparci - spiega Gabriele Baratto, ricercatore presso eCrime -. L'Istituto mette insieme ricercatori e professori che, nei vari settori di competenza, si occupano di sicurezza sotto diversi aspetti. Sono dieci i dipartimenti coinvolti. Obiettivo: andare ad affrontare tematiche innovative legate alla sicurezza nel senso di 'security' e 'safety' in ottica interdisciplinare. Fenomeni come quello dei deepfake abbracciano tematiche che vanno dalla tecnologia alla criminologia, al diritto, a questioni internazionali. Coinvolge un team di ricerca multidisciplinare, insomma".

 

Il fenomeno dei deepfake va a toccare, soprattutto, un concetto: quello d'identità e quello di sicurezza, legata all'identità. "È un argomento di cui ci stiamo occupando ed è molto importante dal nostro punto di vista perché va a ridefinire quella che è e che sarà la sicurezza del futuro ma, soprattutto, il concetto di identità e tutto ciò che ne consegue: tutela di identità, violazione di identità. Tanto dal punto di vista giuridico e quanto da quello criminologico".

 

"Le tecnologie di deepfake, e gli algoritmi di intelligenza artificiale che ne stanno alla base - continua Baratto - sono ad un livello di avanzamento sbalorditivo. Ad oggi, con video fatti bene, è impossibile distinguere ad occhio nudo un video di deepfake da uno reale".

 

I primi a farne le spese sono, come già si è detto, politici, attori e attrici. Tutte le persone, insomma, mediaticamente esposte ma non ci sono solo loro. Ci siamo anche noi, semplici utenti del web, tutti, potenzialmente, a rischio. "Potenzialmente, ognuno di noi può essere esposto a questo rischio. Pensiamo - prosegue il ricercatore di eCrime - ai video pornografici. Pensiamo ad un criminale che riesce a creare un video in cui noi siamo protagonisti e ci ricatta. Si tratta, in realtà, di un fenomeno già diffuso, anche se non (ancora) con i deepfake. Sto parlando del cosiddetto revenge porn, il ricatto dal punto di vista sessuale. Un fenomeno allarmante. Con le tecnologie deepfake sarà possibile fare un ricatto sessuale senza avere in mano un video reale perché quel video sarò io a crearlo. L'unica cosa di cui ho bisogno è una serie di immagini. Tutto qui".

 

Il deepfake è nato e si alimenta in un mondo, quello del web, che dell'immagine ha fatto vessillo e baluardo. "Noi stiamo producendo un'enorme quantità di immagini: attraverso i social, le app. Per accedere alle applicazioni, ad esempio, accettiamo tutti i check box della privacy senza preoccuparci del posto in cui le nostre immagini andranno a finire. Siamo noi stessi produttori involontari, e  incoscienti, di materiali che possono essere utilizzati".

 

Quali le implicazioni giuridiche? Le immagini hanno valore probatorio, si sa. "Queste tecnologie stanno sicuramente aprendo territori sconosciuti dal punto di vista giuridico. Una volta arrivati in un'aula di tribunale ci sono, e ci saranno, degli strumenti per essere al pari con la tecnologia. Insomma, si riuscirà ad essere sempre in grado di stabilire in modo certo se un video è originale o frutto di manipolazione. Ad oggi, però, l'unica cosa che possiamo fare è studiare, e contrastare, questa minaccia in un tavolo di lavoro che si occuperà di protezione dell'identità".

 

Quello con il falso è un problema che la nostra società sta affrontando da tempo. Dai fotomontaggi passando per le fake news fino ai deepfake. "Le fake news ci fanno capire come la dimostrazione della verità o della falsità di una cosa passi sempre in secondo piano. Il falso serve perché dà avvio al dibattito. La fonte non è più importante, quello che conta è che faccia discutere. Ma quello che è allarmante, tanto per i deepfake quanto per le fake news, è che se dal punto di vista tecnologico posso stabilire, ad esempio, se un video è falso o meno, tutto quello che ne consegue però (come il danno d'immagine) si muove in anticipo e a prescindere dalla dimostrazione di falsità".

 

"Quello dei deepfake - conclude Gabriele Baratto - è un fenomeno che desta molto allarme perché sta ridefinendo il concetto di identità e, quindi, quello di protezione dell'identità. Vi sono una serie di accorgimenti da seguire per evitare che la nostra identità venga rubata. Ma, se fino a poco tempo fa cominciavamo ad essere abbastanza consapevoli dei rischi e dei problemi correlati alla distribuzione di nostri dati personali, ora questi confini si stanno ridisegnando".  

Contenuto sponsorizzato
Telegiornale
Ultima edizione
Edizione ore 19.30 del 19 ottobre 2020
Il DolomitiTg, le notizie della giornata in sessanta secondi. Cronaca, politica, ambiente, università, economia e cultura: tutte le news in un minuto
Contenuto sponsorizzato

Dalla home

20 ottobre - 13:55

Il vicepresidente della provincia di Bolzano ha fatto l'annuncio sui social. E pensare che in Trentino il primo cittadino del capoluogo è stato attaccato proprio dalla Giunta provinciale per la scelta presa ieri. Per Failoni ''danno enorme per l'economia della città di Trento e per l'immagine dell'intero Trentino''

20 ottobre - 11:45

I due consiglieri provinciali hanno sfoderato uno l'immagine del Grinch l'altro quella trita e ritrita del ''sindacalista di sinistra'' ma il capolavoro è dell'assessore al turismo che parla di ''danno enorme per l'economia della città di Trento e per l'immagine dell'intero Trentino''. Proprio lui autore della legge sulle chiusure domenicali nel momento dove serviva spingere al massimo l'economia e che ha direttamente bollato Trento e molte altre località come ''non turistiche''

20 ottobre - 11:25

Le due deputate pentastellate Doriana Sarli e Carmen Di Lauro sono riuscite "dopo quasi dieci ore di attesa" a entrare nel centro del Casteller. Giunte per "constatare la situazione dei 3 orsi", si erano viste negare l'accesso dalla Provincia e dai gestori, rivolgendosi allora ai carabinieri di Trento. "Abbiamo verbalizzato una denuncia. Gli orsi stanno bene ma gli spazi sono inadeguati. Devono essere liberati"

Contenuto sponsorizzato
Contenuto sponsorizzato
Contenuto sponsorizzato