I deepfake sono maschere virtuali utilizzate per impersonare le persone. Si stanno diffondendo sempre di più su Internet e va detto che la loro creazione sta diventando più facile con l’avanzare delle tecnologie di Deep Learning e di Intelligenza Artificiale. Quali sono i rischi? Qual è il loro futuro? In questo articolo analizzeremo in dettaglio questi aspetti.
Che cos’è un deepfake?
Il termine deepfake si riferisce non solo ai contenuti creati, ma anche alle tecnologie utilizzate: è una contrazione di “Deep Learning” e “Fake”, che può essere tradotta come “falsa profondità”, riferendosi a contenuti falsi resi profondamente credibili. In genere assume la forma di una registrazione video o audio creata o modificata utilizzando l’intelligenza artificiale. Nel 2014, il ricercatore Ian Goodfellow ha inventato una tecnica alla base dei deepfakes, la GAN (Generative Adversarial Networks). Questa tecnologia utilizza due algoritmi che si addestrano a vicenda: uno cerca di rendere le contraffazioni il più affidabili possibile, mentre l’altro cerca di individuare i falsi. In questo modo, i due algoritmi migliorano insieme nel tempo grazie al rispettivo addestramento.
Dall’autunno 2017, i deepfake sono diventati sempre più diffusi. Nel 2019, i ricercatori di Deeptrace hanno identificato circa 15.000 video deepfake online, rispetto ai meno di 8.000 dell’anno precedente. I deepfake audio sono ancora relativamente poco diffusi, in quanto richiedono notevoli risorse hardware per essere creati.
Quali sono i rischi associati alle maschere virtuali?
I deepfake possono essere utilizzati per scopi malevoli come la manipolazione, la disinformazione, l’umiliazione, la diffamazione e il ricatto. Ad esempio, un deepfake può essere utilizzato per creare un video in cui una persona sembra dire o fare qualcosa che non ha mai detto o fatto. I deepfake possono essere utilizzati anche per ingannare i sistemi di riconoscimento facciale e per impersonare un’altra persona. Ciò può accadere, ad esempio, durante le procedure di onboarding dei clienti in remoto, quando un criminale informatico tenta di usurpare l’identità di una persona.
Un tempo fisiche, le maschere che tentavano di riprodurre il volto di altre persone stanno ora diventando virtuali: più semplici, più veloci da realizzare e meno rilevabili. La minaccia è reale e il realismo dovrebbe migliorare con il tempo e i progressi tecnologici. Ciò potrebbe causare danni significativi all’immagine pubblica e alla privacy delle persone prese di mira.
Rilevare e prevenire i deepfakes è quindi un’importante sfida di cybersecurity per le organizzazioni e le autorità pubbliche.
Cosa riserva il futuro alla sicurezza informatica?
I deepfakes sono un problema crescente, soprattutto sui social network, dove sono esposti al maggior numero di persone e possono diffondersi rapidamente e facilmente. Per contrastare questa minaccia, alcune soluzioni sono in grado di applicare un filtro ai video per evitare che vengano sfruttati da software in grado di generare deepfake. Il laboratorio FAIR di Facebook sta lavorando a questo progetto di “de-identificazione”.
Nell’ambito dell’onboarding dei clienti, l’ANSSI (l’Agenzia nazionale francese per la sicurezza dei sistemi informativi) ha messo in atto le seguenti misure per combattere questa minaccia il PVID (Remote Identity Verification Provider), che consente di garantire l’identità anche a distanza. I requisiti dello standard consentono di contrastare gli attacchi tramite presentazione (video preregistrati, foto) e deepfake. Infatti, i percorsi per entrare in una relazione devono includere una “sfida” unica e casuale. All’utente viene chiesto di eseguire un’azione specifica che non può essere prevista in anticipo, rendendo il percorso “non riproducibile” ed evitando così queste minacce.