Solutions contre les risques de Deepfake pour la sécurité biométrique


Une banque de Hong Kong a récemment été victime d'une usurpation d'identité dans laquelle un employé de la banque a été amené à transférer 25,6 millions de dollars à des voleurs après un appel vidéo avec le directeur financier de la banque et d'autres collègues. Mais aucun d’entre eux n’était de vraies personnes – tous étaient des deepfakes créés avec l’aide de l’intelligence artificielle.

Cet incident illustre comment les cybercriminels peuvent utiliser les deepfakes pour tromper les humains et commettre des fraudes. Cela soulève également des inquiétudes quant aux menaces que les deepfakes font peser sur les systèmes d’authentification biométrique.

L’utilisation de marqueurs biométriques pour authentifier les identités et accéder aux systèmes numériques a explosé au cours de la dernière décennie et devrait croître de plus de 20 % par an jusqu’en 2030. Pourtant, comme pour chaque avancée en matière de cybersécurité, les méchants ne sont pas loin derrière.

Tout ce qui peut être échantillonné numériquement peut être falsifié : une image, une vidéo, un audio ou même un texte pour imiter le style et la syntaxe de l'expéditeur. Équipé d’une demi-douzaine d’outils largement disponibles et d’un ensemble de données de formation comme des vidéos YouTube, même un amateur peut produire des deepfakes convaincants.

Les attaques Deepfake contre l'authentification se déclinent en deux variétés, appelées attaques par présentation et par injection.

Les attaques de présentation consistent à présenter une fausse image, un rendu ou une vidéo à une caméra ou à un capteur pour authentification. Voici quelques exemples :

Attaques d'impression

  • image 2D
  • Masque en papier 2D avec yeux découpés
  • Photo affichée sur un smartphone
  • Masque en couches 3D
  • Attaque par relecture d'une vidéo capturée de l'utilisateur légitime

Attaques deepfakes

  • Échange de visage
  • Synchronisation labiale
  • Clonage vocal
  • Transfert de geste/expression
  • Texte pour parler

Les attaques par injection impliquent la manipulation du flux de données ou du canal de communication entre la caméra ou le scanner et le système d'authentification, à l'instar des attaques bien connues de l'homme du milieu (MITM).

À l'aide d'un logiciel automatisé destiné aux tests d'applications, un cybercriminel ayant accès à un appareil ouvert peut injecter une empreinte digitale ou un identifiant facial dans le processus d'authentification, contournant les mesures de sécurité et obtenant un accès non autorisé aux services en ligne. Les exemples comprennent:

  • Téléchargement de médias synthétiques
  • Streaming multimédia via un appareil virtuel (par exemple, des caméras)
  • Manipulation des données entre un navigateur Web et un serveur (c'est-à-dire l'homme du milieu)

Se défendre contre les deepfakes

Plusieurs contre-mesures offrent une protection contre ces attaques, souvent centrées sur l’établissement si le marqueur biométrique provient d’une personne réelle et vivante.

Les techniques de test de vivacité comprennent l'analyse des mouvements du visage ou la vérification des informations de profondeur 3D pour confirmer une correspondance faciale, l'examen du mouvement et de la texture de l'iris (optique), la détection d'impulsions électroniques (capacitive) et la vérification d'une empreinte digitale sous la surface de la peau (ultrasons).

Cette approche constitue la première ligne de défense contre la plupart des types de deepfakes, mais elle peut affecter l’expérience utilisateur, car elle nécessite la participation de l’utilisateur. Il existe deux types de contrôles de vivacité :

  • Protection passive s'exécute en arrière-plan sans nécessiter la saisie des utilisateurs pour vérifier leur identité. Cela ne crée peut-être pas de friction mais offre moins de protection.
  • Méthodes activesqui obligent les utilisateurs à effectuer une action en temps réel, comme sourire ou parler pour attester que l'utilisateur est en direct, offrent plus de sécurité tout en modifiant l'expérience utilisateur.

En réponse à ces nouvelles menaces, les organisations doivent prioriser les actifs qui nécessitent le niveau de sécurité le plus élevé impliqué dans les tests d'activité actifs et quand cela n'est pas nécessaire. De nombreuses normes réglementaires et de conformité exigent aujourd'hui une détection de l'activité, et bien d'autres pourraient le faire à l'avenir, à mesure que de nouveaux incidents tels que la fraude bancaire de Hong Kong seront révélés.

Meilleures pratiques contre les deepfakes

Une approche à plusieurs niveaux est nécessaire pour lutter efficacement contre les deepfakes, intégrant des contrôles d’activité actifs et passifs. L'activité active nécessite que l'utilisateur exécute des expressions aléatoires, tandis que l'activité passive fonctionne sans l'implication directe de l'utilisateur, garantissant ainsi une vérification robuste.

De plus, une fonctionnalité de caméra en profondeur réelle est nécessaire pour empêcher les attaques de présentation et se protéger contre la manipulation des appareils utilisée dans les attaques par injection. Enfin, les organisations doivent prendre en compte les bonnes pratiques suivantes pour se prémunir contre les deepfakes :

  • Algorithmes anti-usurpation d'identité : Les algorithmes qui détectent et différencient les données biométriques authentiques des données usurpées peuvent détecter les contrefaçons et authentifier l'identité. Ils peuvent analyser des facteurs tels que la texture, la température, la couleur, le mouvement et les injections de données pour déterminer l'authenticité d'un marqueur biométrique. Par exemple, FakeCatcher d'Intel recherche des changements subtils dans les pixels d'une vidéo qui montrent des changements dans le flux sanguin vers le visage afin de déterminer si une vidéo est réelle ou fausse.

  • Cryptage des données : Assurez-vous que les données biométriques sont cryptées pendant la transmission et le stockage pour empêcher tout accès non autorisé. Des contrôles d’accès et des protocoles de chiffrement stricts peuvent empêcher les injections d’homme du milieu et de protocoles qui pourraient compromettre la validité d’une identité.
  • Authentification adaptative : Utilisez des signaux supplémentaires pour vérifier l'identité des utilisateurs en fonction de facteurs tels que les réseaux, les appareils, les applications et le contexte afin de présenter de manière appropriée les méthodes d'authentification ou de réauthentification en fonction du niveau de risque d'une demande ou d'une transaction.
  • Défense multicouche : S'appuyer sur une analyse statique ou en flux de vidéos/photos pour vérifier l'identité d'un utilisateur peut amener de mauvais acteurs à contourner les mécanismes de défense actuels. En augmentant les transactions à haut risque (par exemple, les virements électroniques) avec un identifiant vérifié et signé numériquement, les opérations sensibles peuvent être protégées avec une identité numérique réutilisable. Avec cette approche, les appels vidéo pourraient être complétés par une coche verte indiquant : « Cette personne a été vérifiée de manière indépendante ».

Renforcer les systèmes de gestion des identités

Il est important de se rappeler que le simple remplacement des mots de passe par une authentification biométrique ne constitue pas une défense infaillible contre les attaques d'identité, à moins que cela ne fasse partie d'une stratégie globale de gestion des identités et des accès qui aborde les risques transactionnels, la prévention de la fraude et les attaques d'usurpation d'identité.

Pour contrer efficacement les menaces sophistiquées posées par les technologies deepfake, les organisations doivent améliorer leurs systèmes de gestion des identités et des accès avec les dernières avancées en matière de technologies de détection et de chiffrement. Cette approche proactive renforcera non seulement la sécurité des systèmes biométriques, mais améliorera également la résilience globale des infrastructures numériques contre les cybermenaces émergentes.

Donner la priorité à ces stratégies sera essentiel pour se protéger contre le vol d’identité et garantir la fiabilité à long terme de l’authentification biométrique.

Related posts

Intel annonce une nouvelle technologie pour rivaliser sur le marché des PC IA

Un équilibre, et non des mandats, est nécessaire pour assurer la sécurité des enfants en ligne : RPT

Sensibilisation à la cybersécurité pour les Jeux olympiques de 2024