La tecnologia alla base dei deepfake ha innumerevoli applicazioni nel mondo del cinema e, in combinazione con le tecniche CGI (computer generated imagery), negli ultimi anni è diventata piuttosto diffusa in un ambito particolare: riportare sullo schermo attori morti.
A gennaio 2023 l’emittente britannica ITV ha trasmesso una nuova serie dal titolo Deep Fake Neighbour Wars, un reality/sit-com in cui alcune celebrità si trovano a vivere nello stesso quartiere litigando tra loro. Tra i tanti volti noti comparsi nella serie figurano, ad esempio, Kim Kardashian, la cantante Adele, l’attore Tom Holland, l’attivista Greta Thunberg e il calciatore Harry Kane, solo per citarne alcuni.
La peculiarità di questa serie TV però è il fatto che nessuno di questi personaggi è mai realmente comparso nello show. Tutti questi sono infatti dei deepfake, ovvero creazioni digitali estremamente accurate modellate sulle fattezze di persone reali (in questo caso, di VIP conosciuti in tutto il mondo) e poi montate sui volti e sui corpi di attori veri.
La tecnologia alla base dei deepfake ha innumerevoli applicazioni nel mondo del cinema e, in combinazione con le tecniche CGI (computer generated imagery), negli ultimi anni è diventata piuttosto diffusa in un ambito particolare: riportare sullo schermo attori morti.
Uno degli esempi più famosi in questo senso è indubbiamente la saga di Star Wars, nel film Rogue One del 2016 in cui compare una scena con l’attore Peter Cushing deceduto nel 1994. Al di là dell’aspetto tecnico (la realizzazione è stata possibile grazie alla sovrapposizione delle immagini del defunto Cushing sulle movenze e sul volto di un altro attore), la possibilità di animare e ricreare digitalmente attori deceduti ha provocato reazioni discordanti nel pubblico circa le implicazioni etiche di questa tecnologia.
Diversi attori e, soprattutto, le case di produzione hanno invece iniziato a valutare gli aspetti legali, ad esempio modificando i contratti per inserire clausole specifiche circa i diritti di sfruttamento di immagine post-mortem.
Non sono solo le major di Hollywood ad aver recepito le potenzialità rivoluzionarie di una simile tecnologia. Esiste infatti un settore in cui l’impiego massiccio dei deepfake potrebbe dare adito a controversie etiche e legali persino più importanti del resuscitare i morti: la pornografia.
Il mondo del porno ha sempre dimostrato di saper cogliere le potenzialità offerte da quello dell’innovazione tecnologica (dai social network alle app per smartphone fino ai device indossabili) e, in questo senso, i deepfake non fanno eccezione.
Purtroppo questi non sono sempre impiegati in maniera legale o etica. Negli ultimi anni sono infatti nati sempre più servizi online che consentono di sovrapporre immagini di VIP e celebrità sul corpo di attori porno con il risultato che molte star di Hollywood e in generale molte persone famose potrebbero veder circolare sul web video e foto in cui compaiono i loro volti. E con il progredire della tecnologia sarà sempre più complesso distinguere un deepfake porn da una immagine reale.
Ad aggravare ulteriormente la situazione è la combinazione di deepfake e intelligenza artificiale (AI) con cui è diventato possibile “nudificare” in pochi secondi delle normalissime foto di chiunque, prendendole dai social. Non c’è più la necessità di un ricco database di immagini da cui attingere: basta andare su Instagram, salvare la foto della persona che si vuole vedere nuda e poi trovare qualche servizio online al costo di pochi euro (oppure qualche utente di forum appositi che lo fa anche gratuitamente).
In base al vostro livello di notorietà, quanto è probabile che in questo momento stiano girando vostre fotografie nudificate su qualche forum o in qualche chat di Telegram? Quanto è probabile che prima o poi queste fotografie diventino pubbliche?
Deepfake e guerra: il finto Zelensky
A marzo del 2022, meno di un mese dopo l’inizio dell’invasione russa dell’Ucraina, in un video sui social è comparso il Presidente Zelensky che lanciava un messaggio alla nazione: arrendersi, restituire il Donbass a Mosca e porre fine alla guerra.
È stato il primo importante impiego dei deepfake nel conflitto e ha consentito di fare alcune considerazioni circa il futuro di questa tecnologia sui teatri delle operazioni militari.
In primo luogo, ha ribadito (semmai ce ne fosse bisogno) che le guerre moderne sono guerre di informazione e, soprattutto, di disinformazione. Un messaggio del genere, lanciato sui social e massicciamente ricondiviso aveva lo scopo di fiaccare il morale delle forze armate di Kiev o quantomeno di generare confusione. La risposta immediata del governo ucraino, con la pubblicazione sui canali ufficiali di un video di smentita da parte del vero Zelensky, ha mostrato che Kiev si aspettava attacchi di questo genere e che è sempre bene replicare immediatamente per evitare la proliferazione incontrollata di notizie false.
In secondo luogo, è stato osservato che i deepfake hanno l’effetto, sul lungo periodo, di contribuire al calo di credibilità delle fonti di informazione. La platea di pubblico, continuamente esposta a una dose di informazioni spesso contrastanti tra loro (lo si è visto con la pandemia da Covid-2019) è tendenzialmente sfiduciato nei confronti delle autorità. I deepfake sono degli acceleratori di questa tendenza, favorendo così la ricerca di informazioni su canali secondari, non ufficiali e lontani dai media mainstream, ma anche più soggetti alla manipolazione da parte di attori interessati a propagandare una verità parziale e faziosa.
La questione dei potenziali rischi derivanti dai deepfake non è una preoccupazione solo occidentale. Il governo cinese ha già iniziato a muoversi in tal senso e dal 10 gennaio 2023 è attiva una normativa che regolamenta la pubblicazione di video deepfake, specialmente in chiave politica e satirica.
Non solo presidenti e capi di Stato, i deepfake potrebbero essere impiegati anche per guerre economiche. Nel 2022 è infatti stato diffuso un video di Elon Musk in cui veniva promossa una criptovaluta truffaldina durante una intervista. Nel caso specifico, la realizzazione grafica non perfetta ha consentito di identificare il falso facilmente.
Ma cosa potrebbe succedere se si diffondessero video deepfake di amministratori delegati delle grandi multinazionali che dichiarano il fallimento dell’azienda o che confessano casi di corruzione provocando il crollo di una grossa borsa valori mondiale?