Meta étend les tests de reconnaissance faciale comme mesure anti-escroquerie pour lutter contre les publicités frauduleuses ciblant les célébrités et plus largement, a annoncé lundi le propriétaire de Facebook.
Monika Bickert, vice-présidente de la politique de contenu de Meta, a écrit dans un article de blog que certains des tests visent à renforcer ses mesures anti-escroquerie existantes, telles que les analyses automatisées (utilisant des classificateurs d’apprentissage automatique) exécutées dans le cadre de son système d’examen des publicités, pour rendre plus difficile pour les fraudeurs de passer sous son radar et de duper les utilisateurs de Facebook et d’Instagram pour qu’ils cliquent sur de fausses publicités.
« Les escrocs tentent souvent d’utiliser des images de personnalités publiques, telles que des créateurs de contenu ou des célébrités, pour inciter les gens à interagir avec des publicités qui les dirigent vers des sites Web frauduleux où ils sont invités à partager des informations personnelles ou à envoyer de l’argent. Ce stratagème, communément appelé « appât à célébrités », viole nos politiques et est néfaste pour les personnes qui utilisent nos produits », a-t-elle écrit.
« Bien sûr, les célébrités sont présentes dans de nombreuses publicités légitimes. Mais comme les publicités destinées à attirer les célébrités sont souvent conçues pour paraître réelles, il n’est pas toujours facile de les détecter. »
Les tests semblent utiliser la reconnaissance faciale comme moyen de contrôle des publicités signalées comme suspectes par les systèmes Meta existants lorsqu’elles contiennent l’image d’une personnalité publique risquant d’être qualifiées d’« appât pour célébrités ».
« Nous allons essayer d’utiliser la technologie de reconnaissance faciale pour comparer les visages de la publicité avec les photos de profil Facebook et Instagram de la personnalité publique », a écrit Bickert. « Si nous confirmons une correspondance et que la publicité est une arnaque, nous la bloquerons. »
Meta affirme que cette fonctionnalité n’est utilisée à aucune autre fin que la lutte contre les publicités frauduleuses. « Nous supprimons immédiatement toutes les données faciales générées par les publicités pour cette comparaison unique, que notre système trouve ou non une correspondance, et nous ne les utilisons à aucune autre fin », a-t-elle déclaré.
La société a déclaré que les premiers tests de l’approche – avec « un petit groupe de célébrités et de personnalités publiques » (elle n’a pas précisé qui) – ont montré des résultats « prometteurs » dans l’amélioration de la rapidité et de l’efficacité de la détection et de la lutte contre ce type d’escroquerie.
Meta a également déclaré à TechCrunch qu’il pensait que l’utilisation de la reconnaissance faciale serait efficace pour détecter les publicités frauduleuses deepfake, où l’IA générative a été utilisée pour produire des images de personnes célèbres.
Le géant des réseaux sociaux est accusé depuis de nombreuses années de ne pas avoir réussi à empêcher les escrocs de détourner les visages de célébrités dans le but d’utiliser sa plateforme publicitaire pour vendre des escroqueries telles que des investissements cryptographiques douteux à des utilisateurs peu méfiants. Il est donc intéressant que Meta fasse pression sur des mesures anti-fraude basées sur la reconnaissance faciale pour résoudre ce problème maintenant, à un moment où l’entreprise essaie simultanément de récupérer autant de données utilisateur que possible pour former ses modèles d’IA commerciaux (dans le cadre de la ruée plus large de l’industrie pour créer des outils d’IA génératifs).
Dans les semaines à venir, Meta a déclaré qu’il commencerait à afficher des notifications dans l’application à un groupe plus large de personnalités publiques qui ont été touchées par des appâts pour célébrités, leur faisant savoir qu’elles sont inscrites dans le système.
« Les personnalités publiques inscrites à cette protection peuvent se désinscrire à tout moment dans leur centre de comptes », a noté Bickert.
Meta teste également l’utilisation de la reconnaissance faciale pour repérer les comptes d’imposteurs de célébrités – par exemple, lorsque des escrocs cherchent à se faire passer pour des personnalités publiques sur la plateforme afin d’élargir leurs possibilités de fraude – toujours en utilisant l’IA pour comparer les photos de profil d’un compte suspect avec les photos de profil Facebook et Instagram d’une personnalité publique.
« Nous espérons pouvoir tester cette approche et d’autres nouvelles approches prochainement », a ajouté Bickert.
Selfies vidéo et IA pour le déverrouillage de compte
De plus, Meta a annoncé qu’il testait l’utilisation de la reconnaissance faciale appliquée aux selfies vidéo pour permettre un déverrouillage plus rapide des comptes des personnes qui ont été exclues de leurs comptes Facebook/Instagram après qu’ils ont été pris en charge par des escrocs (par exemple si une personne a été amenée à remettre ses mots de passe).
Cela semble destiné à attirer les utilisateurs en promouvant l’utilité apparente de la technologie de reconnaissance faciale pour la vérification d’identité – Meta impliquant que ce sera un moyen plus rapide et plus simple de retrouver l’accès au compte que de télécharger une image d’une pièce d’identité émise par le gouvernement (qui est la voie habituelle pour déverrouiller l’accès maintenant).
« La vérification par selfie vidéo élargit les possibilités offertes aux personnes souhaitant récupérer l’accès à leur compte. Elle ne prend qu’une minute et constitue le moyen le plus simple de vérifier leur identité », a déclaré Bickert. « Nous savons que les pirates informatiques continueront d’essayer d’exploiter les outils de récupération de compte, mais cette méthode de vérification sera finalement plus difficile à utiliser que la vérification d’identité traditionnelle basée sur des documents. »
La méthode d’identification de selfie vidéo basée sur la reconnaissance faciale que Meta teste demandera à l’utilisateur de télécharger un selfie vidéo qui sera ensuite traité à l’aide de la technologie de reconnaissance faciale pour comparer la vidéo aux photos de profil du compte auquel il essaie d’accéder.
Meta affirme que la méthode est similaire à la vérification d’identité utilisée pour déverrouiller un téléphone ou accéder à d’autres applications, comme FaceID d’Apple sur l’iPhone. « Dès qu’une personne télécharge un selfie vidéo, celui-ci est crypté et stocké en toute sécurité », a ajouté Bickert. « Il ne sera jamais visible sur son profil, ni par ses amis, ni par d’autres personnes sur Facebook ou Instagram. Nous supprimons immédiatement toutes les données faciales générées après cette comparaison, qu’il y ait ou non une correspondance. »
Conditionner les utilisateurs à télécharger et stocker un selfie vidéo à des fins de vérification d’identité pourrait être un moyen pour Meta d’élargir son offre dans le domaine de l’identité numérique – si suffisamment d’utilisateurs choisissent de télécharger leurs données biométriques.
Pas de tests au Royaume-Uni ni dans l’UE — pour l’instant
Selon Meta, tous ces tests de reconnaissance faciale sont menés à l’échelle mondiale. Cependant, l’entreprise a souligné, de manière assez évidente, que les tests ne sont actuellement pas effectués au Royaume-Uni ou dans l’Union européenne, où des réglementations complètes en matière de protection des données s’appliquent. (Dans le cas spécifique de la biométrie pour la vérification d’identité, le cadre de protection des données de l’Union exige le consentement explicite des personnes concernées pour un tel cas d’utilisation.)
Les tests de Meta semblent donc s’inscrire dans une stratégie de communication plus vaste que l’entreprise a mise en place en Europe ces derniers mois pour tenter de faire pression sur les législateurs locaux afin qu’ils diluent les protections de la vie privée des citoyens. Cette fois, la cause invoquée pour faire pression en faveur d’un traitement sans entrave des données pour l’IA n’est pas une notion (égoïste) de diversité des données ou des allégations de perte de croissance économique , mais l’objectif plus simple de lutter contre les escrocs.
« Nous collaborons avec le régulateur britannique, les décideurs politiques et d’autres experts pendant que les tests avancent », a déclaré Andrew Devoy, porte-parole de Meta, à TechCrunch. « Nous continuerons à solliciter les commentaires des experts et à procéder à des ajustements au fur et à mesure de l’évolution des fonctionnalités. »
Cependant, bien que l’utilisation de la reconnaissance faciale à des fins de sécurité étroite puisse être acceptable pour certains – et, en fait, pourrait être possible pour Meta de l’entreprendre dans le cadre des règles de protection des données existantes – l’utilisation des données des personnes pour former des modèles d’IA commerciaux est une toute autre paire de manches.