“I deepfake sono un esempio lampante di come una tecnologia si sviluppi più velocemente del tempo necessario a comprenderla e a imparare a gestirne i rischi. Per questo motivo viene percepita sia come uno strumento in più a beneficio degli artisti, che come nuovo strumento di disinformazione che mette in discussione diversi aspetti della nostra vita quotidiana”.

Sono le parole di Vladislav Tushkanov, lead data scientist di Kaspersky, a margine di un approfondimento che la software house russa ha compiuto sul fenomeno del deepfake. Approfondimento che arriva, tra l’altro, dopo la decisione di Google di bandire gli algoritmi di deepfake da Google Colaboratory, il servizio di calcolo gratuito dell’azienda con accesso alle GPU. Google non è stato comunque l’unico grande nome a regolamentare i deepfake. Diversi stati americani hanno leggi che li regolamentano, il progetto di legge cinese richiede l’identificazione dei dati generati al computer e il futuro regolamento UE sull’intelligenza artificiale potrebbe includere una clausola su questa particolare tecnologia.

Tenuto conto delle riserve e dei dubbi generati da questo tipo di tecnologia, gli esperti di Kaspersky hanno così deciso di spiegare la tecnologia deepfake, quali rischi presenta e come gli utenti possono proteggersi.

I deepfake si riferiscono comunemente a vari tipi di dati sintetici, generati dal computer, che coinvolgono le persone e sono realizzati con reti neurali profonde. Può trattarsi di video, foto o registrazioni vocali. L’uso del deep learning, al posto delle tradizionali tecniche di editing delle immagini, riduce drasticamente lo sforzo e l’abilità necessari per creare un falso convincente.

In origine, il termine si riferiva a un particolare software che aveva guadagnato popolarità su Reddit. Il software era in grado di sostituire il volto di una persona all’interno di un video e veniva utilizzato quasi esclusivamente per creare porno non consensuali con alcune celebrità. Secondo alcune stime, fino al 96% di tutti i deepfake sono pornografici, il che mette in evidenza le preoccupazioni per abusi, estorsioni e casi di pubblica umiliazione.

Questa tecnologia potrebbe anche aiutare i criminali informatici. In Inghilterra, ad esempio, un deepfake vocale è stato utilizzato per ingannare le aziende e indurle a trasferire fondi ai truffatori, con gli attaccanti che si sono finti funzionari delle rispettive società. Una recente ricerca ha dimostrato che gli algoritmi commerciali di rilevamento della vivacità, utilizzati dalle istituzioni finanziarie nelle procedure KYC, potrebbero essere ingannati da deepfake creati a partire da fototessere, creando nuovi vettori di attacco e rendendo i documenti d’identità trapelati un problema ancora più grave.

deep-fake_-intelligenza-artificiale_5

Un ulteriore problema risiede nel fatto che i deepfake minano la fiducia degli utenti rispetto a vari contenuti audio e video, in quanto possono essere effettivamente utilizzati per scopi malevoli. Ad esempio, in un caso recente, una falsa intervista di Elon Musk è stata utilizzata per promuovere una truffa sulle criptovalute. Diversi esperti e istituzioni, come Europol, avvertono che la crescente disponibilità di deepfake può portare a un’ulteriore proliferazione della disinformazione su Internet.

Ovviamente non esistono solo aspetti negativi. La manipolazione delle immagini è antica quanto le immagini stesse e la CGI (computer-generated imagery) esiste da decenni, ed entrambe vengono utilizzate in diversi ambiti “leciti”. Ad esempio, nel recente film Top Gun: Maverick, è stato utilizzato un algoritmo per dare voce al personaggio di Val Kilmer dopo che l’attore aveva perso la voce. Un algoritmo deepfake è stato utilizzato anche per creare una serie virale su TikTok con protagonista un finto Tom Cruise. Alcune startup stanno poi cercando nuovi modi per utilizzare la tecnologia, ad esempio per generare avatar realistici nel metaverso.

Tenuto conto di queste problematiche relative ai deepfake, potrebbe essere difficile riconoscerli. Un deepfake convincente, come quello di Tom Cruise, richiede ancora molta esperienza e impegno, e talvolta anche un imitatore professionista. I deepfake utilizzati per le truffe tendono ancora a essere di bassa qualità e possono essere individuati notando movimenti innaturali delle labbra, capelli non propriamente realistici, forme del viso non corrispondenti, battito di ciglia scarso o assente, colori della pelle non corrispondenti e così via. Anche gli errori nella resa dei vestiti o una mano che passa sul viso possono rivelare un deepfake amatoriale.

Nel caso in cui un personaggio famoso o pubblico faccia affermazioni azzardate o offerte troppo belle per essere vere, anche se il video risultasse convincente, è sempre meglio procedere con attenzione e fare un controllo incrociato delle informazioni consultando fonti attendibili. Inoltre, i truffatori possono intenzionalmente codificare i video per nascondere i difetti dei deepfake creati, per cui osservare il video alla ricerca di indizi potrebbe non essere la strategia migliore, è sempre meglio usare il buon senso e fare delle verifiche ulteriori.

Una soluzione di sicurezza affidabile può inoltre fornire un buon supporto nel caso in cui un deepfake di alta qualità convinca gli utenti a scaricare file o programmi dannosi o a visitare link sospetti o siti web di phishing. Infine, le vittime di deepfake a sfondo pornografico possono rivolgersi sia al sito web per chiedere la rimozione del video (molti siti vietano la pubblicazione di deepfake), sia alle forze dell’ordine, in quanto la generazione di questi contenuti è un reato penale nelle legislazioni di molti Paesi.