Les deepfakes sont des masques virtuels qui permettent d’usurper des identités. Ils sont de plus en plus répandus sur internet, il faut dire que leur création devient plus facile avec l’avancé des technologies de Deep Learning et d’Intelligence Artificielle. Quels en sont les risques ? Quel est leur avenir ? Dans cet article, nous allons examiner ces questions en détail.
Qu’est-ce qu’un deepfake ?
Le terme deepfake fait référence non seulement au contenu ainsi créé, mais aussi aux technologies utilisées il est la contraction de « Deep Learning » et de « Fake », qui peut être traduit par « fausse profondeur » faisant référence à des contenus faux qui sont rendus profondément crédibles. Il prend généralement la forme d’un enregistrement vidéo ou audio créé ou modifié grâce à l’intelligence artificielle. En 2014, le chercheur Ian Goodfellow a inventé une technique à l’origine des deepfakes, le GAN (Generative Adversarial Networks). Cette technologie utilise deux algorithmes qui s’entraînent mutuellement : l’un tente de fabriquer des contrefaçons aussi fiables que possible, tandis que l’autre tente de détecter les faux. De cette façon, les deux algorithmes s’améliorent ensemble au fil du temps grâce à leur entraînement respectif.
Depuis l’automne 2017, les deepfakes sont devenus de plus en plus répandus. En 2019, les chercheurs de la société Deeptrace ont recensé environ 15 000 vidéos deepfakes en ligne, contre moins de 8 000 un an auparavant. Les deepfakes audio sont encore relativement peu répandus, car leur création nécessite des ressources matérielles importantes.
Quels sont les risques liés aux masques virtuels ?
Les deepfakes peuvent être utilisés à des fins malveillantes, telles que la manipulation, la désinformation, l’humiliation, la diffamation et le chantage. Par exemple, un deepfake peut être utilisé pour créer une vidéo dans laquelle une personne semble dire ou faire quelque chose qu’elle n’a jamais dit ou fait. Les deepfakes peuvent également être utilisés pour tromper les systèmes de reconnaissance faciale et pour usurper l’identité de quelqu’un d’autre. Cela peut notamment intervenir lors de démarches à distance dans des parcours d’onboarding client par exemple, où un cybercriminel tente d’usurper l’identité d’une personne.
Autrefois physiques, les masques tentant de reproduire des visages d’autres personnes se modernisent et deviennent virtuelles : plus simple, plus rapide à fabriquer, et moins detectable. La menace est réelle, et le réalisme devrait s’améliorer avec le temps et les avancées technologiques. Cela pourrait causer des dommages importants à l’image publique et à la vie privée des personnes ciblées.
La détection et la prévention des deepfakes sont donc un défi de cybersécurité majeur pour les organisations et administrations.
Quel avenir en matière de cybersécurité ?
Les deepfakes sont un problème croissant notamment sur les réseaux sociaux, où ils sont exposés au plus grand nombre peuvent se propager rapidement et facilement. Pour faire face à cette menace, certaines solutions sont capables d’appliquer un filtre sur les vidéos afin d’empêcher leur exploitation par des logiciels qui peuvent générer des deepfakes. En ce sens, le laboratoire FAIR de Facebook travaille sur ce projet de « désidentification ».
Dans le domaine de l’onboarding client, l’ANSSI (l’Agence Nationale de la Sécurité des Systèmes d’Informations) contre cette menace a déployé le référentiel PVID (Prestataire de Verification d’Identité à Distance), permettant de garantir les identités même à distance. Les exigences du référentiel permettent de contrer les attaque par présentation (vidéos préalablement enregistrées, photos) et les deepfakes. En effet les parcours d’entrée en relation doivent intégrer un « challenge » aléatoire unique. ll est demandé à l’utilisateur d’effectuer une action spécifique qui ne peut pas être préalablement prévue, rendant « non rejouable » le parcours, et qui évite donc ces menaces.