Les deepfakes compromettent la sécurité de la reconnaissance faciale

L’analyste de marché Gartner prévoit une perte de confiance des entreprises dans l’identification biométrique des visages à cause du pouvoir croissant des videos « deepfake » (vidéos truquées).

Les vidéos deepfake sont des vidéos créées par l’IA qui reproduisent le visage d’une personne. Cette technologie se perfectionne constamment, compromettant la sécurité de l’authentification biométrique. L’analyste de marché Gartner prévoit que les entreprises abandonneront cette méthode d’identification à partir de 2026.

Méthode biométrique

De nos jours, la création d’un deepfake est simple comme bonjour. Toutefois, les modèles classiques contiennent encore suffisamment de détails inexacts pour les éliminer par filtrage. Quand une personne expérimentée met plus de temps et de savoir-faire dans une vidéo deepfake, les résultats deviennent rapidement crédibles. Et c’est là que ces vidéos posent un risque pour la sécurité.

De nombreux smartphones, par exemple, utilisent la reconnaissance faciale pour déverrouiller certaines applications. Une récente recherche menée par SAS a révélé que près de trois Belges interrogés sur quatre acceptent d’utiliser des méthodes biométriques, telles que la reconnaissance faciale, au lieu de mots de passe, lors d’un paiement ou d’une transaction.

Risques de sécurité

L’analyste de marché Gartner avertit maintenant des dangers que l’identification basée sur le visage posera à terme. L’évolution des images générées par l’IA est en constante progression, et les deepfakes deviennent de plus en plus crédibles. Cela rendrait la sécurité de l’authentification biométrique inefficace. Gartner prévoit qu’à partir de 2026, 30 % des entreprises refuseront de faire confiance à l’identification faciale.

newsletter

Abonnez-vous gratuitement à ITdaily !

Category(Required)
This field is for validation purposes and should be left unchanged.
retour à la maison