Accueil🇫🇷Chercher

Système de reconnaissance faciale

Un système de reconnaissance faciale est une application logicielle visant à reconnaître automatiquement une personne grâce à son visage. Il s'agit d'un sujet particulièrement étudié en vision par ordinateur, avec de très nombreuses publications et brevets, et des conférences spécialisées.

La reconnaissance de visage a de nombreuses applications en vidéosurveillance, biométrie, robotique, indexation d'images et de vidéos, recherche d'images par le contenu, etc. Ces systèmes sont généralement utilisés à des fins de sécurité pour déverrouiller ordinateur/mobile/console, mais aussi en domotique. Le fonctionnement de ces systèmes se base sur une ou plusieurs caméras pour reconnaître l'utilisateur[1].

Ces systèmes peuvent également être utilisés dans le but de faciliter la vie de l'utilisateur, comme le font par exemple certains réseaux sociaux sur internet (Facebook[2] - [3], Google+[4]) ou certaines applications mobiles (NameTag[5], FaceRec[6]) pour identifier des visages sur des images. Ces systèmes se basent alors sur des photos et/ou vidéos d'une ou plusieurs personnes.

La détection de visage, qui consiste à repérer qu'un visage est présent sur une image, est l'une des possibles phases techniques de la reconnaissance faciale[7].

Historique

L'une des premières tentatives de reconnaissance faciale est faite par Takeo Kanade en 1973 lors de sa thèse de doctorat à l'Université de Kyoto[8] - [9].

Le , Facebook lance un service de reconnaissance faciale accessible à tous[10]. Celui-ci a été vivement critiqué par un bon nombre d'associations de protection de la vie privée et du droit à l'oubli. Sous cette pression, Facebook a dû abandonner ce service le en Europe[11].

Un autre projet de reconnaissance de visage, appelé DeepFace, développé par le groupe de recherche de Facebook a également commencé à voir le jour début 2015. Cet outil a pour but de reconnaître un visage, quelle que soit son orientation, ainsi que d'y associer une personne. DeepFace permet donc de faire correspondre un très grand nombre de photos différentes d'une même personne, même si celle-ci n'est pas identifiée explicitement. Pour réaliser cela, le système est composé d'un réseau de neurones artificiels entraîné via l'apprentissage profond sur des millions d'images[12].

Toutefois, cette technologie évolue rapidement et cherche à se démocratiser via le développement de nombreux cas d'usage. Depuis fin 2018, les annonces se multiplient faisant entrer progressivement la reconnaissance faciale dans le quotidien, tous les systèmes montrant une avancée spectaculaire, tant au niveau de l'efficacité des algorithmes employés qu'au niveau de la masse de données pouvant être traitée par les programmes. En 2019, Cydral Technology diffuse un système utilisable depuis un simple téléphone et propose de ce fait le tout premier moteur de recherche grand public[13] fonctionnant à l'image de la recherche inversée proposée par Google mais pour l'identification de profils exclusivement.

En , le New York Times révèle l'existence de la société Clearview AI qui commercialise auprès d'agences de sécurité une application de reconnaissance faciale qui permet d'identifier quelqu'un à partir d'une photographie[14]. L'auteur de l'enquête dénonce le fait que cette application remet en cause notre conception de la vie privée[15] - [16].

En , la société espagnole Herta Security remporte un label d'excellence pour une technologie capable d'analyser des visages et de surveiller la foule. Cette technologie pourrait être utilisée en cas de nouvelle vague de Covid-19. Ce logiciel, nommé Aware, est capable de vérifier la distanciation sociale et d'identifier les personnes à différents points de contrôles[17].

Usages

Les systèmes de reconnaissance faciale sont de plus en plus présents au quotidien. Ils sont par exemple utilisés sur les réseaux sociaux sur internet pour identifier quelqu'un sur une photo, sur les smartphones pour les déverrouiller, ou par des services de sécurité pour reconnaître des individus recherchés. Ces utilisations peuvent être séparées en deux principales catégories : la sécurité et l'assistance à l'utilisateur.

De plus, il existe deux types de tâches[18] :

  • L'identification, appelĂ©e aussi one-to-many (1:N), consiste Ă  dĂ©terminer l'identitĂ© d'un individu parmi N identitĂ©s connues, prĂ©sentes dans une base.
  • La vĂ©rification, appelĂ©e aussi one-to-one (1:1), consiste Ă  vĂ©rifier que l'identitĂ© prĂ©tendue est bien la bonne.

RĂ©seaux sociaux

En ce qui concerne l'utilisation de réseaux sociaux sur internet, comme pour Facebook[2] ou Google+[4], lors d'un ajout de photo ou de vidéo, le visage est détecté puis un algorithme suggère une liste de personnes pouvant correspondre au visage repéré sur l'image ou la vidéo grâce aux images identifiant déjà chaque individu.

Vérification de l'identité

La reconnaissance faciale peut permettre ou non l'accès à un logement ou une pièce (Domotique) : différents équipements comme SekuFACE[19] ou iFace[20] utilisent en effet la reconnaissance faciale pour s'assurer de l'identité de l'utilisateur.

Cet élément peut également se déplacer : différents équipements existent en effet pour des véhicules comme Mobii[21]. Ou encore un environnement virtuel, cet environnement pouvant être :

  • Les donnĂ©es d'un ordinateur, comme les exemples de systèmes Toshiba Face Recognition[22] ou Blink[23].
  • Les donnĂ©es d'une console, comme les exemples de la PlayStation 4[24] ou de la Xbox One[25].
  • Les donnĂ©es d'un smartphone, il est alors possible de trouver des systèmes qui utilisent les capteurs du tĂ©lĂ©phone[26] ou non (systèmes mis en place dès Android 4.0[27] ou Windows Phone[28]).

Les systèmes de reconnaissance faciale, au-delà de la protection des données, permettent donc également d'interdire l'accès et l'utilisation d'éléments matériels ou immatériels.

Sécurité

La sécurité est le principal domaine d'application des systèmes de reconnaissance faciale.

Le système s'assure dans ce cas que l'utilisateur est bien valide, avant de l'autoriser à accéder à un élément donné. Cela peut être utilisé dans un lieu public :

  • Pour autoriser l'accès Ă  un avion afin de s'assurer qu'un futur passager n'est pas recherchĂ©, comme cela est le cas Ă  Sotchi[29]
  • Pour autoriser l'accès Ă  un pays, comme cela est fait dans plusieurs aĂ©roports en France (PARAFE) et plusieurs autres pays oĂą cela est utilisĂ© pour vĂ©rifier l'identitĂ© des citoyens avec une passeport biomĂ©trique Ă©ligible et expĂ©dier le passage de frontières pour eux.
  • Pour suivre et potentiellement identifier une personne Ă  partir des images d'un système de vidĂ©osurveillance.

Surveillance policière

Un des domaines importants d'application de ces systèmes est la surveillance policière. Elle facilite la recherche d'identité d'une personne à l'aide d'une photo ou d'une vidéo.

Pour l'usage dans le cadre professionnel, l'exemple des forces de l'ordre est notable, comme le système de reconnaissance faciale développé actuellement par le FBI appelé NGI[30], ou celui actuellement utilisé par la NSA[31] qui se base entre autres sur les images postées sur les réseaux sociaux sur internet.

Le logiciel de Clearview AI, qui permet de comparer une photographie avec une base de donnĂ©es de plus de trois milliards de photographies initialement publiĂ©es sur Internet, Ă©tait Ă©galement utilisĂ© par plus de 600 bureaux de police nord-amĂ©ricains en [32].

Paiement

Le système de reconnaissance faciale serait utilisé dans le paiement du métro de Pékin, selon le Beijing Daily[33].

Santé

Les systèmes de reconnaissance faciales peuvent également aider les gens souffrant de prosopagnosie[34], ou les déficients visuels[35] - [36].

MĂ©thode

Comment fonctionnent les technologies de reconnaissance faciale ? il faut distinguer trois usages principaux qui se basent sur des moyens et techniques dédiés: la vérification de l’identité par rapport un document personnel, la recherche d'une personne référencée dans une base de données, l'identification systématique à la volée dans un espace public[37].

La méthode de recherche d'une personne référencée dans une base de données sur trois phases : la détection de visage qui repère un visage, l'analyse du visage qui donne un résultat numérique, et la reconnaissance qui compare ce résultat avec la base de données de visages enregistrés.

Il faut donc, avant toute tentative d'identification, constituer une base de données contenant pour chaque utilisateur soit une capture initiale[38], soit plusieurs. Dans le cas où plusieurs captures sont effectuées, une moyenne de celle-ci est alors stockée[39], ce qui permet au système de mieux s'adapter à divers paramètres pouvant varier au moment de la reconnaissance (apparition de cernes/rides, luminosité ambiante, maquillage…).

Une fois l'analyse effectuée, la reconnaissance effectue donc la comparaison entre le modèle obtenu et ceux stockés dans la base de données. On parle alors de reconnaissance 1 à 1 si on avait une seule capture initiale stockée dans la base de données initialement, ou de reconnaissance 1 à N si on en avait plusieurs.

Reconnaissance 2D

Considérée comme la méthode « classique » de reconnaissance faciale[40], cette méthode consiste à reconnaître l'utilisateur à partir d'une photo de lui. Cette photo peut être capturée par une caméra dans un but de sécurité, ou simplement être déjà enregistrée dans le cadre d'une assistance à l'utilisateur. La reconnaissance est alors effectuée par un algorithme qui peut s'appuyer sur différents éléments[41], comme la forme d'éléments du visage[42] tels que les yeux et leur écartement, la bouche, …

Deux catégories d'algorithmes sont alors distinguées :

  • La première catĂ©gorie crĂ©e une image gĂ©omĂ©trique de l'utilisateur en fonction de diffĂ©rents paramètres (tailles des Ă©lĂ©ments du visage, forme et distance entre eux)[43]. Les paramètres rĂ©cupĂ©rĂ©s sont alors encodĂ©s puis comparĂ©s avec ceux prĂ©sents dans la base de donnĂ©es.
  • La seconde catĂ©gorie encode numĂ©riquement l'image, en utilisant les algorithmes de Fourier[44], les eigenfaces[43] pour crĂ©er des vecteurs de poids, ou encore des calculs de moyennes sur certaines zones de l'image[39]…

Reconnaissance 3D

Schéma d'une modélisation 3D pouvant être issue d'une reconnaissance faciale.

Cette méthode est considérée comme une amélioration de la reconnaissance 2D. En effet, elle crée un modèle 3D[40] depuis plusieurs photos effectuées successivement ou depuis une vidéo. Cela permet d'avoir différents points de vue de la personne à reconnaître afin de créer le modèle 3D.

De nombreux algorithmes existent en ce qui concerne l'analyse, chacun se basant sur un ou plusieurs éléments du visage (comme l'orientation du nez[45]) pour créer le modèle 3D[46] - [47] correspondant au visage de l'utilisateur.

Fiabilité

La fiabilité des différents systèmes de reconnaissance faciale se vérifient selon plusieurs indicateurs[26] - [40] :

  • Le taux de bonne reconnaissance : le système reconnaĂ®t bien l'utilisateur qu'il devait reconnaĂ®tre.
  • Le taux de mauvaise reconnaissance : le système reconnaĂ®t un utilisateur mais en l'identifiant comme un autre.
  • Le taux de faiblesse aux attaques photo : le système est trompĂ© par une attaque photo.
  • Le taux de faiblesse aux attaques vidĂ©o : le système est trompĂ© par une attaque vidĂ©o.

Paramètres augmentant la fiabilité

Différents paramètres entrent en compte pour accroître les performances :

  • Le nombre de photos/vidĂ©os en base de donnĂ©es[40] : cela permet de mieux modĂ©liser l'utilisateur, et donc de mieux le reconnaĂ®tre ensuite.
  • Le nombre d'images capturĂ©es lors de la reconnaissance[40] : cela permet de mieux modĂ©liser l'utilisateur qui souhaite s'identifier, et donc de mieux vĂ©rifier qu'il correspond au modèle en base de donnĂ©es.
  • La luminositĂ©[26] - [40] : une meilleure luminositĂ© sur le visage de l'utilisateur permet de mieux reconnaĂ®tre celui-ci en Ă©vitant de mal modĂ©liser son visage en raison de « zones d'ombre ».
  • La proximitĂ© de l'utilisateur vis-Ă -vis de l'objectif[26] - [40] : une meilleure proximitĂ© de l'utilisateur vis-Ă -vis de l'objectif permet une meilleure qualitĂ© d'image sur son visage, et donc une meilleure modĂ©lisation.
  • La qualitĂ© de l'image[26] - [40] : pour la mĂŞme raison que le paramètre prĂ©cĂ©dent, une meilleure qualitĂ© permet une meilleure modĂ©lisation.

Performances

L'efficacité d'un système de reconnaissance faciale est établie en fonction de son taux de fiabilité, mais également en fonction du temps d'exécution qu'il lui faut pour effectuer la reconnaissance ainsi que pour établir le profil stocké en base de données.

Le tableau suivant résume les informations récupérées sur les différents systèmes évoqués.

Système utilisé Type de reconnaissance Constitution de la base de données Temps de reconnaissance moyen (sans échec)
Toshiba3D2 Ă  3 min20 s
Android avec capteurs2DInconnu5s
Android 4.02D2 s< 1 s
Iphone 4S2D2 Ă  5 min< 1s
Xbox OneInconnu5 s1 Ă  5 s
PS43D50 Ă  70 s< 2 s
Iphone X, 11, 12, 13 3D Inconnu < 1 s

Biais algorithmiques

En , la chercheuse Joy Buolamwini du Massachusetts Institute of Technology montre que les principaux systèmes de reconnaissance faciale (ceux d'IBM, Microsoft et Face ++) ont des biais algorithmiques et sont moins performants pour identifier les femmes et les visages à la peau foncée : Face ++ identifie 99,3 % des hommes, mais seulement 78,7 % des femmes et IBM atteint 77,6 % des peaux foncées contre des scores supérieurs à 95% pour les trois logiciels pour les peaux blanches). Selon l'étude, 93,6 % des erreurs faites par Microsoft concernaient ses sujets à la peau foncée, et 95,9 % de celles de Face ++ concernaient des femmes. La chercheuse explique que « les hommes à la peau claire sont surreprésentés [dans les bases de données des exemples], et aussi les personnes à la peau claire de manière générale[48]. »

Le , un homme de 28 ans est arrĂŞtĂ© et mis en dĂ©tention plusieurs jours par un policier de Bâton rouge Ă  la suite d'un mandat d'arrĂŞt dĂ©livrĂ© basĂ© sur le rĂ©sultat d'un algorithme et malgrĂ© un poids et une taille très diffĂ©rentes du suspect. Il est libĂ©rĂ© le après qu'il s'avère ĂŞtre victime d'un faux positif du fait de la couleur de sa peau. Les logiciels utilisĂ©s par la police de Bâton rouge sont celui de l'entreprise Clearview AI, qui annonce possĂ©der la plus grande base de donnĂ©es de visages, et Morphotrak, de l'entreprise Idemia[49].

Failles du système

Comme tout élément ayant une utilité de sécurisation, les systèmes de reconnaissance faciale sont sujets à des attaques visant à les tromper en exploitant des failles. Trois principaux types d'attaques sont alors connus dans ce domaine pour tromper les systèmes de reconnaissance faciale.

Attaques photo

Le premier type d'attaque est l'attaque par photo[26] - [40] - [39]. En effet, montrer une photo au système semble être une bonne méthode pour tromper la caméra. L'efficacité de ce type d'attaque a été aidée par l'arrivée d'imprimantes ayant une résolution élevée, aussi nommée haute définition. Ces imprimantes permettent en effet d'imprimer une image très qualitative, trompant aisément la vigilance des systèmes.

Une autre possibilité consiste à utiliser des écrans à haute définition disponibles dans le commerce (écrans, smartphones) pour présenter une photo très détaillée et ainsi tromper le système.

Ce type d'attaque est devenu encore plus simple à effectuer avec l'apparition des réseaux sociaux sur internet et les très nombreuses photos postées par les utilisateurs.

Attaques vidéo

Ce deuxième type d'attaque consiste à présenter une vidéo à l'objectif de la caméra afin de tromper le système de reconnaissance faciale[26].

Des logiciels disponibles sur internet, appelés caméras virtuelles, tels que VirtualCamera[50] ou Manycam[51] permettent en effet de tromper le système de reconnaissance en lui présentant une vidéo comme si celle-ci provenait de sa propre caméra. Il est alors possible de présenter la vidéo d'une personne au système de reconnaissance afin de tromper celui-ci.

Ce type d'attaque s'est répandu avec l'arrivée des reconnaissances 3D, car il est très compliqué de tromper une reconnaissance d'un modèle 3D avec une simple photo, cette dernière présentant toujours la même posture d'un individu.

En revanche, la vidéo présente du mouvement et permet d'obtenir plusieurs postures du même individu, le système de reconnaissance 3D peut donc modéliser un modèle réel et être trompé.

Attaque avec un masque

La récente mise à disposition au grand public de l'impression tridimensionnelle crée également une faille pour les systèmes de reconnaissance faciale. En effet, cela permet de créer un masque[52] correspondant au visage de l'utilisateur. Il est alors facile d'imaginer l'utilisation d'un masque présentant un individu pour tromper un système de reconnaissance faciale.

RĂ©ponses Ă  ces failles

RĂ©ponses aux attaques photo

Ce type d'attaque est principalement contré en multipliant le nombre de photos prises de l'utilisateur puis en :

  • Analysant s'il y a eu un clignement des yeux[53] . Étant donnĂ© que l'Ĺ“il humain cligne 15 Ă  30 fois par minute[53], il est possible sur une courte analyse de repĂ©rer un clignement. Ce système reste tout de mĂŞme faible face aux attaques vidĂ©o, Ă©tant donnĂ© qu'une vidĂ©o peut contenir les clignements des yeux de la personne Ă  reconnaĂ®tre.
  • Analysant les micro-mouvements[26] - [54] - [55] de l'utilisateur ou de son environnement. Une immobilitĂ©/stabilitĂ© (de l'utilisateur ou son environnement) parfaite lors de l'enregistrement peut en effet Ă©veiller de lourds soupçons quant Ă  la fiabilitĂ© de l'enregistrement.
  • VĂ©rifiant la texture du visage photographiĂ©[56] (texture rĂ©elle et non similaire Ă  celle d'une photo). Une texture trop floue ou irrĂ©elle montrera la non-fiabilitĂ© de l'image.

RĂ©ponses globales

Certaines techniques ont émergé pour contrer les trois types d'attaque. Celles-ci utilisent des événements totalement ou partiellement extérieurs à l'image :

  • En crĂ©ant un modèle depuis des postures fixes de l'utilisateur dans un ordre prĂ©cis (par exemple : profil gauche, profil droit, face).
  • Sur les smartphones, il est possible synchroniser les micro-mouvements ou mouvements du smartphone avec ceux de l'image/vidĂ©o[26] afin de vĂ©rifier l'authenticitĂ© de celle-ci.
  • Sur les pĂ©riphĂ©riques Ă©quipĂ©s de micro, il est possible de demander Ă  l'utilisateur de parler[55] - [57] et de vĂ©rifier que les mouvements de la bouche sur l'image/vidĂ©o afin de vĂ©rifier la synchronisation des deux. De mĂŞme, cela permet de faire une identification basĂ©e sur deux paramètres biomĂ©triques (la voix et le visage). Il est imaginable de lier d'autres paramètres biomĂ©triques avec la reconnaissance faciale, comme les empreintes digitales .
  • VĂ©rifier la texture du visage en addition d'autres rĂ©ponses pour rendre plus compliquĂ©e l'attaque.
  • Donner des instructions Ă  l'utilisateur[26] (exemples : Tournez la tĂŞte vers la droite, Faites tourner la camĂ©ra autour de votre visage, Bougez la camĂ©ra vers le haut…). Il est alors possible de vĂ©rifier que l'utilisateur suit bien les instructions, ce qui est fiable en raison du cĂ´tĂ© l'alĂ©atoire des instructions et la prĂ©cision de celles-ci.

Enjeux sur les libertés

Les systèmes de reconnaissance faciale sont construits autour du dĂ©ploiement de camĂ©ras de videosurveillance connectĂ©es Ă  un rĂ©seau de tĂ©lĂ©communications et Ă  des applications d'intelligence artificielle. Sur ces technologies s'est dĂ©fini le concept de « ville sĂ»re », extension de la ville intelligente. L’équilibre entre libertĂ©s et sĂ©curitĂ© est en tension[58]. Sous couvert de sĂ©curitĂ© des personnes et des biens, cela risque de mettre en jeu dans de nombreux pays le droit Ă  la vie privĂ©e et exercer un contrĂ´le social contraire aux libertĂ©s fondamentales[59] - [60]. La loi europĂ©enne sur les donnĂ©es, Ă©tendant le champ de la loi française « informatique et libertĂ©s » de 1978, citĂ©e comme modèle Ă  travers le monde, spĂ©cifie : Â« L’informatique doit ĂŞtre au service de chaque citoyen. Elle ne doit porter atteinte ni Ă  l’identitĂ© humaine, ni aux droits de l’homme, ni Ă  la vie privĂ©e, ni aux libertĂ©s individuelles ou publiques»[61].

Afrique

Les entreprises chinoises fournissent plusieurs États du continent en systèmes de reconnaissance faciale associés aux caméras de vidéosurveillance. CloudWalk Technology, l’un des leaders chinois du secteur basé à Canton, dans le sud du pays, a coopéré avec le gouvernement zimbabwéen pour mettre en place une reconnaissance faciale à grande échelle, le déploiement aux aéroports et aux frontières sera la première étape[62].

En 2014, Huawei a offert à l'Ouganda 20 caméras de surveillance équipées de technologies de reconnaissance faciale d’une valeur de 702 000 euros. Les autorités ougandaises ont, par la suite, attribué à Huawei déjà fournisseur de son réseau de télécommunications, un marché de caméras de surveillance. Ces outils de surveillance permettent de renforcer l'appareil répressif de l'état[63]. Les pouvoirs en place ont recouru à la société chinoise Huawei pour déployer ces systèmes de «safe city». Les images permettent une reconnaissance faciale et sont transmises en temps réel aux services de sécurité[64] - [65].

Chine

SenseTime et Megvii sont les deux plus importantes sociétés chinoises spécialistes de la reconnaissance faciale. Les usages commerciaux ou pour la surveillance des citoyens en lien avec le gouvernement sont très développés. En 2018, la Chine comptait déjà 349 millions de caméras de vidéosurveillance[66].

À terme, il est prévu que plus de 500 millions de caméras de vidéosurveillance seront déployées à travers le pays. Elles seront associées aux technologies de reconnaissance faciale et d’intelligence artificielle. Cela constituera «le réseau le plus étendu et sophistiqué de vidéosurveillance au monde» selon la BBC[67] - [68]

Huawei développe et commercialise, son concept de « ville sûre » basée sur la vidéosurveillance intelligente. Ces technologies combinées ont mené à un contrôle social très développé mettant en péril les libertés individuelles (notation sociale base d'un système de crédit social, « pilori » numérique sur écran d'affichage)[60] - [69].

« Le Xinjiang fait l’objet d’une surveillance électronique permanente de la part de Pékin, qui y utilise toutes les technologies les plus intrusives : reconnaissance faciale, fichage ADN, vidéosurveillance permanente, drones, géolocalisation des téléphones…[70]. »

À la suite de la pandémie de Covid-19, les autorités chinoises renforcent la surveillance de masse et étendent les mesures restrictives des libertés, donnant l’image d’une époque ou la surveillance fait penser à Big Brother du roman 1984 de George Orwell[71].

États-Unis

Aux États-Unis, « les forces de police utilisent la reconnaissance faciale pour pister des dĂ©linquants. C'est le cas, notamment, Ă  New York, Boston, Detroit, Las Vegas, Orlando, San JosĂ© ou dans l'Etat du Colorado (…). La technologie est aussi utilisĂ©e dans les stades ou les aĂ©roports, comme moyen de surveillance. MĂŞme les services de l'immigration en sont clients, pour reconnaĂ®tre une personne en situation illĂ©gale dĂ©jĂ  arrĂŞtĂ©e par le passĂ©. » Par contre « San Francisco bannit l'usage de la reconnaissance faciale par la police et ses diffĂ©rentes agences municipales[72] ». Les inquiĂ©tudes portent sur de possibles discriminations ou de mauvais usages de la reconnaissance faciale, d'autres villes amĂ©ricaines pourraient suivre cet exemple. 85 ONG, dont American Civil Liberties Union, 55 chercheurs ont demandĂ© aux entreprises telles que Amazon, Microsoft et Google de cesser de vendre cette technologie aux autoritĂ©s[73]. D'autres entreprises, telles Facebook et la jeune pousse Clearview AI qui a sĂ©duit 600 services de police, s'intĂ©ressent Ă  ce marchĂ©[74] - [75]. Une rĂ©gulation de cette technologie par une loi de protection des donnĂ©es Ă  l’échelle des États-Unis semble nĂ©cessaire.

En , Amazon annonce qu'il interdit à la police d’utiliser son logiciel de reconnaissance faciale pendant un an. Le logiciel d'Amazon a pour nom Rekognition. Le contexte social actuel marqué de manifestations contre les violences policières et le racisme aux États-Unis a été un élément de la décision[76] - [77].

En , IBM annonce qu'il arrĂŞte la vente de logiciels de reconnaissance faciale, et ne mènera plus de projets de recherche liĂ©s Ă  cette technologie. Son PDG prend une position plus gĂ©nĂ©rale dans un texte adressĂ© au Congrès amĂ©ricain « IBM s'oppose fermement et ne tolĂ©rera pas l'utilisation de toute technologie, y compris la technologie de reconnaissance faciale proposĂ©e par d'autres fournisseurs, pour la surveillance de masse, le contrĂ´le au faciès, les violations des droits de l'Homme et des libertĂ©s fondamentales ou tout autre objectif qui ne serait pas conforme Ă  nos valeurs et Ă  nos principes de confiance et de transparence »[78].

UtilisĂ©es par des logiciels reconnaissance faciale mis en place par les autoritĂ©s fĂ©dĂ©rales, des images de vidĂ©osurveillance de la frontière amĂ©ricaine ont Ă©tĂ© piratĂ©es. Il s'agit des photos de conducteurs et de plaques d’immatriculation des vĂ©hicules ayant traversĂ© un seul point de passage de la frontière amĂ©ricaine sur une durĂ©e de six semaines, 100 000 personnes seraient concernĂ©es. Le prĂ©sident de la commission de la sĂ©curitĂ© intĂ©rieure Ă  la Chambre des reprĂ©sentants, le dĂ©mocrate Bennie Thompson, s’est alarmĂ© d’une Â« atteinte majeure Ă  la vie privĂ©e ». Â« Nous devons veiller Ă  ne pas Ă©tendre l’utilisation de la biomĂ©trie au dĂ©triment de la vie privĂ©e des AmĂ©ricains»[79].

Selon une plainte déposée mercredi à Detroit, un Américain noir a été arrêté à tort à cause de l’usage par la police de la technologie de reconnaissance faciale. Il s’agit de la première erreur de ce type documentée aux États-Unis. La technologie de reconnaissance faciale, utilisée depuis plusieurs années par différents services de police aux États-Unis sans cadre légal fédéral, est accusée de manquer de fiabilité dans l’identification des minorités, notamment noires ou asiatiques[80].

Le "Biometric Information Privacy Act", interdit aux entreprises de l'Illinois de partager certaines données personnelles sensibles. Clearview AI doit maintenir un formulaire de désinscription qui permet aux habitants de l’Illinois de refuser d’apparaître dans la recherche photo, quel que soit le client concerné (Il en est de même en Californie disposant de règles similaires de protection des données personnelles). À partir de mai 2022, aux États-Unis, Clearview AI ne pourra plus vendre sa base de données biométriques à des acteurs privés. Ces résultats ont été obtenus après deux ans de bataille judiciaire menée par l’Union américaine pour les libertés civiles (ACLU). La procédure judiciaire s'est déroulée dans l’Etat de l’Illinois. Il a été acté que la police de cet état ne pourra plus utiliser les services de Clearview AI pendant cinq ans, ce qui ne sera pas le cas des services fédéraux[81].

France

En France, la mairie de Valenciennes a reçu gratuitement d'Huawei des équipements valant 2 millions d'euros[82]. Huawei a pu ainsi expérimenter son système de « caméras intelligentes » dans cette ville grâce à un accord passé avec le maire Jean-Louis Borloo. Il a été nommé au conseil d'administration de Huawei France quelques années plus tard[69].

D'autres municipalités (Nice, Marseille, Toulouse, La Défense…)[83] se laissent convaincre par les industriels de la sécurité dont Thales, Engie Ineo, Ercom, Idemia qui voient un marché à conquérir.

Idemia, est l’un des leaders mondiaux du secteur de la biomĂ©trie avec 15 000 collaborateurs et 2,3 milliards d’euros de chiffre d’affaires revendiquĂ©s.

Dans un rapport publié en 2020, Amnesty International dénonce plusieurs entreprises européennes dont Idemia qui ont doté la Chine de matériels de surveillance, notamment de reconnaissance faciale[84]. En particulier, Idemia a vendu un système de reconnaissance faciale à la police de Shanghaï.

La nocivité effective des villes sûres est totalement dépendante des autorités en charge et met en alerte les associations de défense des droits de l'homme[85] - [83].

Pour éviter ces expériences et possibles extensions en France[86] ou en Europe, et l'avènement d'une société de surveillance, il faut s'assurer que ces projets[87] soient conformes, avec les constitutions, aux règles du RGPD, et qu'ils soient contrôlés[88] par les autorités indépendantes de type CNIL informatique et libertés.

L'entreprise Clearview AI fait l'objet de plusieurs controverses et procĂ©dures judiciaires vis-Ă -vis des milliards d'images qu'elle a collectĂ©es sur Internet[89] - [90]. En dĂ©cembre 2021, La CNIL met en demeure l’entreprise Clearview AI, lui demande de supprimer les donnĂ©es collectĂ©es en France et lui enjoint de cesser ce type de pratique sur le territoire français« Clearview AI ne dispose pas non plus d’un intĂ©rĂŞt lĂ©gitime Ă  collecter et utiliser ces donnĂ©es, notamment au regard du caractère particulièrement intrusif et massif du procĂ©dĂ© qui permet de rĂ©cupĂ©rer les images prĂ©sentes sur Internet de plusieurs dizaines de millions d’internautes en France. ». Les activitĂ©s de l'entreprise font dĂ©jĂ  l’objet de multiples enquĂŞtes dans le monde[91]. Clearview AI n'ayant pas donnĂ© suite Ă  la mise en demeure, la CNIL la condamne Ă  une amende de 20 millions d'euros le , Ă  laquelle elle a deux mois pour se conformer sous peine d'une astreinte de 100 mille euros d'amende supplĂ©mentaires par jour de retard[92] - [93].

En juin 2023, une loi en débat au Sénat entend réguler les technologies de surveillance basée sur la reconnaissance biométrique dans l’espace public et ouvre la voie à un champ d’expérimentation inédit pour la reconnaissance faciale[94].

Royaume-Uni

Dès 2006, le Royaume-Uni abritait 4,2 millions de caméras de vidéosurveillance (dans la rue, sur les autoroutes, dans les trains, les bus, les couloirs du métro, les centres commerciaux, les stades). Un Londonien pouvait être déjà filmé jusqu'à trois cents fois par jour[95] - [96].

Le dĂ©bat monte au Royaume-Uni sur l'utilisation et la gĂ©nĂ©ralisation de la technologie reconnaissance faciale. La prĂ©sence des camĂ©ras dotĂ©es de cette technologie, dans les quartiers londonien de King's Cross et potentiellement dans le quartier d'affaire Canary Wharf. Plus de 150 000 personnes passant par jour dans ces quartiers seraient scrutĂ©es. L'utilisation de la reconnaissance faciale dans l'espace public pose question. Les lois sur la protection des donnĂ©es imposent le consentement des personnes observĂ©es. Les autoritĂ©s chargĂ©es des libertĂ©s publiques sont prĂ©occupĂ©es, le Royaume-Uni est devenu l'un des pays les plus ouverts Ă  l'usage de cette technologie pour des motifs de surveillance[97].

Les autoritĂ©s de protection des donnĂ©es britannique et australienne ont ouvert en 2020 une enquĂŞte visant l’entreprise Clearview AI spĂ©cialisĂ©e dans la reconnaissance faciale et qui serait capable de comparer n’importe quelle photo d’un individu Ă  sa base de donnĂ©es de trois milliards de photos rĂ©cupĂ©rĂ©es automatiquement sur le Web et les rĂ©seaux sociaux[75]. En , la Information Commissioner's Office condamne Clearview AI Ă  une amende de 7,5 millions de livres sterling pour avoir illĂ©galement collectĂ© les donnĂ©es de millions de citoyens britanniques. Elle exige Ă©galement que l'entreprise cesse de rĂ©cupĂ©rer les photographies de citoyens du Royaume-Uni et qu'elle « supprime les donnĂ©es des rĂ©sidents britanniques de ses systèmes »[98].

En , la cour d’appel de Londres a jugé que l’utilisation de la reconnaissance faciale par la police galloise n’était pas suffisamment encadrée et empiétait trop sur la vie privée[99]. L'arrêt a souligné qu’il n’existait pas d’indications claires sur les lieux où cette technologie pouvait être utilisée par la police ni sur les modalités conduisant à l’inscription sur la « liste de surveillance ».

Russie

En Russie, à l'occasion de la pandémie mondiale de covid-19, les voyageurs arrivant de zones à risque sont soumis à de rigoureuses quarantaines. À Moscou, 12 millions de habitants, le système de reconnaissance faciale de la ville, fort d’au moins 100 000 caméras de vidéosurveillance, est mis au service de ces contrôles, de même que le très efficace système d’e-gouvernance, qui permet de maintenir un lien constant avec les citoyens[100]. Avant même l'irruption de la pandémie, Il y avait un projet de généraliser l’utilisation des systèmes de reconnaissance faciale, une réelle menace pour la vie privée et les droits humains que dénonce les associations locales pour les droits civiques[101].

Suisse

En Suisse, entre 2018 et 2020, les polices zurichoise et saint-galloise auraient recouru illĂ©galement au logiciel amĂ©ricain Clearview AI[102]. En 2022, une pĂ©tition demandant « l’interdiction de la surveillance biomĂ©trique de masse dans les villes », signĂ©e par plus de 10 000 personnes, est remise aux plus grandes villes du pays[102].

Iran

Les autorités ont annoncé leur intention d'utiliser les technologies de reconnaissance faciale pour identifier les femmes qui ne se soumettent pas à l'obligation de porter le voile[103] - [104]. En janvier 2023, le fait que des femmes sont arrêtées chez elles pour non port du voile accrédite l'hypothèse que cette annonce a été mise en application[105].

Notes et références

  1. « Comment fonctionnent les technologies de reconnaissance faciale ? », Le Monde, (consulté le ).
  2. Reconnaissance Faciale de Facebook.
  3. Aubin Laratte, « Facebook supprime la reconnaissance faciale de ses services », Aujourd'hui en France High-tech,‎ (lire en ligne, consulté le ).
  4. Reconnaissance faciale Google
  5. NameTag
  6. FaceRec
  7. Commission Nationale de l'Informatique et des Libertés, « Reconnaissance faciale » Accès libre, sur CNIL (consulté le )
  8. Takeo Kanade, Picture processing by computer complex and recognition of human faces, Department of Information Sciences, Kyoto University, Japan, 1973.
  9. (en) Xiaozheng Zhang et Yongsheng Gao, « Face Recognition accross pose: a review », Pattern Recognition,‎ .
  10. « Facebook critiqué pour son système de reconnaissance faciale », Le Monde, .
  11. « Facebook suspend sa reconnaissance faciale en Europe », Le Monde avec AFP, .
  12. « "DeepFace", le nouveau système de reconnaissance faciale de Facebook qui fait froid dans le dos », sur Le Huffington Post (consulté le ).
  13. « "Facezam", un moteur de recherche d'images exploitant exclusivement la reconnaissance faciale », sur fastface.eu.
  14. (en) « The Secretive Company That Might End Privacy as We Know It », The New York Times, .
  15. (en) Jon Porter, « Go read this NYT expose on a creepy new facial recognition database used by US police », sur theverge.com, .
  16. « Reconnaissance faciale : une start-up analyse les photos des réseaux sociaux pour la police américaine », sur Le Monde.fr, (consulté le )
  17. Samuel Stolton, « Une technologie de reconnaissance faciale reçoit le label d’excellence de la Commission », sur EurActiv, (consulté le ).
  18. (en) Rabia Jafri et Hamid R. Arabnia, « A Survey of Face Recognition Techniques », Journal of Information Processing Systems, vol. 5, no 2,‎
  19. SekuFACE.
  20. iFace.
  21. Mobii
  22. Toshiba Face Recognition
  23. Blink
  24. Reconnaissance Faciale Playstation 4
  25. Xbox One
  26. Sensor-Assisted Facial Recognition: An Enhanced Biometric Authentication System for Smartphones
  27. Reconnaissance Faciale Android
  28. Reconnaissance Faciale sur Windows Phone
  29. Reconnaissance faciale à l'aéroport de Broadway
  30. NGI
  31. Système de reconnaissance faciale utilisé par la NSA.
  32. (en) Igor Bonifacic, « Google tells facial recognition startup Clearview AI to stop scraping photos », sur Engadget, (consulté le )
  33. Voir sur french.peopledaily.com.cn.
  34. M. Enache, "A study on face recognition with applications in prosopagnosia and management of patients," 2017 E-Health and Bioengineering Conference (EHB), Sinaia, Romania, 2017, pp. 257-260, doi: 10.1109/EHB.2017.7995410.
  35. Jafri, Rabia & Ali, Syed & Arabnia, Hamid. (2013). Face recognition for the visually impaired.
  36. (en) « Face Recognition Tool for the Blind », sur https://www.sbir.gov, (consulté le )
  37. Romain Imbach, Marianne Pasquier Martin Untersinger, « Comment fonctionnent les technologies de reconnaissance faciale ? », sur Le Monde.fr, (consulté le )
  38. Face recognition from a single image per person: A survey
  39. 100% Accuracy in Automatic Face Recognition
  40. 2D and 3D face recognition: A survey
  41. View-Based and Modular Eigenspaces for Face Recognition
  42. Parametric models for facial features segmentation.
  43. Face recognition: A literature survey
  44. Live face detection based on the analysis of Fourier spectra
  45. Multiple Nose Region Matching for 3D Face Recognition under Varying Facial Expression.
  46. Face Recognition Based on Fitting a 3D Morphable Model
  47. 3D Face Recognition Using Simulated Annealing and the Surface Interpenetration Measure.
  48. Perrine Signoret, « Une étude démontre les biais de la reconnaissance faciale, plus efficace sur les hommes blancs », sur lemonde.fr, (consulté le ).
  49. (en) John Simerman, « JPSO used facial recognition technology to arrest a man. The tech was wrong. », sur le site nola.com, (consulté le )
  50. VirtualCamera
  51. Manycam
  52. Spoofing Face Recognition with 3D Masks
  53. Eyeblink-based Anti-Spoofing in Face Recognition from a Generic Webcamera.
  54. Real-time eye blink detection with GPU-based SIFT tracking
  55. Face recognition with liveness detection using eye and mouth movement
  56. Is physics-based liveness detection truly possible with a single image?
  57. A Multimodal Biometric Identification System
  58. Claire Legros, Antoine Courmont, « La crise du coronavirus accélère la recomposition de la gouvernance de la ville numérique », Le Monde, (consulté le ).
  59. Félix Tréguer, « La « ville sûre » ou la gouvernance par les algorithmes », sur monde-diplomatique.fr, (consulté le ).
  60. Sylvain Louvet, « Tous surveillés - 7 milliards de suspects », sur arte.tv, .
  61. « Reconnaissance faciale : un nécessaire débat », Le Monde, (consulté le ).
  62. Sébastien Le Belzic, « Le Big Brother chinois s’installe dans les rues et les foyers africains », Le Monde, (consulté le ).
  63. Simon Leplâtre, « Comment la Chine exporte ses outils de surveillance », sur LeMonde.fr, (consulté le ).
  64. Corentin Cohen,Joan Tilouine, « L’Afrique, laboratoire de cybersurveillance et de manipulation de l’opinion », sur LeTemps.ch, (consulté le )
  65. Brice Pedroletti, Joan Tilouine, « Le Burkina Faso à l’heure chinoise », sur LeMonde.fr, (consulté le ).
  66. Kai Strittmatter, Dictature 2.0: Quand la Chine surveille son peuple (et demain le monde), Tallandier, (ISBN 979-10-210-4319-0, lire en ligne), p. 214-219.
  67. « Est-il possible d’échapper à la vidéosurveillance en Chine ? », Le Monde, (consulté le ).
  68. « En Chine, des caméras devinent qui sont les passants dans la rue », Le Monde Video, Dailymotion, (consulté le ).
  69. Romain Besnainou, « Qui a peur de Huawei ? », sur france.tv, .
  70. « Les douaniers chinois installent des logiciels espions sur les téléphones de touristes entrant au Xinjiang », Le Monde, (consulté le ).
  71. « Chine, l’empire du contrôle », Le Monde, (consulté le ).
  72. Nicolas Rauline, « San Francisco bannit la reconnaissance faciale », Les Echos, (consulté le ).
  73. « Reconnaissance faciale : 55 chercheurs demandent à Amazon de ne plus vendre son logiciel à la police », Le Monde, (consulté le ).
  74. « Reconnaissance faciale : une start-up analyse les photos des réseaux sociaux pour la police américaine », Le Monde, (consulté le ).
  75. « Données personnelles : Clearview AI visé par une double enquête », Le Monde, (consulté le ).
  76. « Amazon interdit à la police américaine d’utiliser son logiciel de reconnaissance faciale pendant un an », Le Monde, AFP, AP, (consulté le ).
  77. « Amazon impose à la police plus de transparence sur l’utilisation des images des caméras de vidéosurveillance des particuliers », sur Le Monde.fr avec AFP, (consulté le )
  78. Alice Vitard, « IBM se retire du marché de la reconnaissance faciale », Usine Digitale, (consulté le ).
  79. « Des images de vidéosurveillance à la frontière américaine piratées », Le Monde, AP, (consulté le ).
  80. « Etats-Unis : un Américain noir arrêté à tort à cause de la technologie de reconnaissance faciale », Le Monde, AFP, (consulté le ).
  81. Maxime Pernet, « L’entreprise américaine Clearview renonce à vendre ses outils de reconnaissance faciale aux entreprises », sur Le Monde, (consulté le ).
  82. Théodore Therschlucen, « Valencienne, Demain les caméras de vidéosurveillance seront intelligentes et… chinoises », La Voix du Nord, .
  83. « Safe city à Marseille premier recours contre la vidéosurveillance automatisée de l'espace public ? », sur ldh-france.org, .
  84. « Amnesty International dénonce l’exportation vers la Chine de technologies européennes de surveillance », Le Monde, (consulté le ).
  85. Julien Nocetti, « Point de vue : Europe le nécessaire débat sur la reconnaissance faciale », Ouest France, .
  86. « Le gouvernement envisage une expérimentation de la reconnaissance faciale dans des lieux publics », sur francetvinfo.fr, .
  87. Macéo Croppo, « Reconnaissance faciale en France : quelle place dans la politique de sécurité intérieure ? », sur portail-ie.fr, .
  88. « Reconnaissance faciale : pour un débat à la hauteur des enjeux », sur cnil.fr, .
  89. Emma Confrere, « Reconnaissance faciale : la société Clearview AI accusée de «surveillance de masse illégale» », Le Figaro avec AFP, (consulté le )
  90. Samuel Kahn, « Reconnaissance faciale: Clearview fait scandale avec ses 3 milliards de visages «aspirés» », sur Le Figaro, (consulté le )
  91. Florian Reynaud, « La CNIL met en demeure l’entreprise de reconnaissance faciale Clearview », sur Le Monde, (consulté le ).
  92. Jean-Marc Manach, « RGPD : Clearview AI condamné à 20 millions d'euros d'amende, pour la 3e fois », sur Next INpact, (consulté le ).
  93. « Reconnaissance faciale : la CNIL condamne Clearview AI à une amende de 20 millions d’euros », sur Le Monde avec Agence France-Presse, (consulté le ).
  94. Florian Reynaud, Pauline Croquet, « Reconnaissance biomĂ©trique dans l’espace public : ce que contient la loi en dĂ©bat au SĂ©nat », sur Le Monde, (consultĂ© le ).
  95. Jean-Pierre Langellier, « La Grande-Bretagne se transforme en une "société sous surveillance" », Le Monde, (consulté le ).
  96. « Big Brother; surveille les automobilistes britanniques », sur Le Monde, (consulté le ).
  97. Lucas Mediavilla, « La polémique enfle au Royaume-Uni sur l'utilisation de la reconnaissance faciale », Les Echos, (consulté le ).
  98. Maxime Pernet, « Au Royaume-Uni, Clearview AI condamné à une amende de 8,85 millions d'euros », sur Le Monde, (consulté le ).
  99. « Au Royaume-Uni, la justice inflige un revers à la reconnaissance faciale », Le Monde, AFP, (consulté le ).
  100. Benoît Vitkine, « En Russie, l’étoile pâlie du pouvoir face au coronavirus », Le Monde, (consulté le ).
  101. « Reconnaissance faciale à Moscou, 100.000 caméras surveillent les confinés », sur BFMTV, AFP, (consulté le ).
  102. Thibault Nieuwe Weme, « Mobilisation contre la reconnaissance faciale: Lausanne interpellée », Le temps,‎ (lire en ligne, consulté le ).
  103. (en-US) Khari Johnson, « Iran Says Face Recognition Will ID Women Breaking Hijab Laws », Wired,‎ (ISSN 1059-1028, lire en ligne, consulté le )
  104. « L'Iran affirme que la reconnaissance faciale permettra d'identifier les femmes qui enfreignent les lois sur le hijab, un outil appréciable pour les régimes autoritaires du monde », Developpez.com,‎ (lire en ligne, consulté le )
  105. Laure Coromines, « L'Iran utiliserait la reconnaissance faciale pour identifier les femmes sans Hijab », sur L'ADN, (consulté le )

Voir aussi

Articles connexes

Bibliographie

  • (en) Richard Szeliski, Computer Vision : Algorithms and Applications, Springer, (lire en ligne) Document utilisĂ© pour la rĂ©daction de l’article
  • (en) S. Z. Li et A. K. Jain, Handbook of Face Recogntion, Springer,
  • (en) Shaxun Chen, Amit Pande et Prasant Mohapatra, « Sensor-Assisted Facial Recognition: An Enhanced Biometric Authentication System for Smartphones », MobiSys, vol. Proceedings of the 12th,‎ (lire en ligne)
  • (en) X. Tan, S. Chen, ZH. Zhou et F. Zhang, « Face recognition from a single image per person: A survey », Science Direct, vol. 39,‎ (DOI doi:10.1016/j.patcog.2006.03.013, lire en ligne [PDF])
  • (en) R. Jenkins et A. M. Burton, « 100% Accuracy in Automatic Face Recognition », Science Mag, vol. 319,‎ (DOI 10.1126/science.1149656, lire en ligne [PDF])
  • (en) Andrea F. Abate, Michele Nappi, Daniel Riccio et Gabriele Sabatino, « 2D and 3D face recognition: A survey », Science Direct, vol. 28,‎ (DOI 10.1016/j.patrec.2006.12.018, lire en ligne)
  • (en) A. Pentland, « View-Based and Modular Eigenspaces for Face Recognition », IEEE, vol. Conference on Computer Vision & Pattern recognition,‎ (ISBN 0-8186-5825-8, ISSN 1063-6919, DOI 10.1109/CVPR.1994.323814, lire en ligne [PDF])
  • (en) W. Zhao, R. Chellappa, P.J. Phillips et A. Rosenfeld, « Face recognition: A literature survey », ACM Computing Surveys, vol. 35,‎ , p. 399-458 (ISSN 0360-0300, DOI 10.1145/954339.954342, lire en ligne [PDF])
  • (en) Jiangwei Li, Yunhong Wang, Tieniu Tan et Anil K. Jain, « Live face detection based on the analysis of Fourier spectra », Biometric Technology for Human Identification,‎ (DOI 10.1117/12.541955, lire en ligne [PDF])
  • (en) K.I. Chang et W. Bowyer, « Multiple Nose Region Matching for 3D Face Recognition under Varying Facial Expression », IEEE, vol. Transactions on pattern analysis and machine intelligence 28,‎ , p. 1695 - 1700 (ISSN 0162-8828, DOI 10.1109/TPAMI.2006.210, lire en ligne [PDF])
  • (en) Volker Blanz et Thomas Vetter, « Face Recognition Based on Fitting a 3D Morphable Model », IEEE, vol. Transactions on pattern analysis and machine intelligence 25,‎ , p. 1063 - 1074 (ISSN 0162-8828, DOI 10.1109/TPAMI.2003.1227983, lire en ligne [PDF])
  • (en) Chaua C. Queirolo, Luciano Silva, Olga R.P. Bellon et Mauricio Pamplona Segundo, « 3D Face Recognition Using Simulated Annealing and he Surface Interpenetration Measure », IEEE, vol. Transactions on pattern analysis and machine intelligence 32,‎ , p. 206-219 (ISSN 0162-8828, DOI 10.1109/TPAMI.2009.14, lire en ligne)
  • (en) Gang Pan, Lin Sun, Zhaohui Wu et Shihong Lao, « Eyeblink-based Anti-Spoofing in Face Recognition from a Generic ebcamera », IEEE, vol. Computer Vision 11th,‎ , p. 1-8 (ISBN 978-1-4244-1630-1, ISSN 1550-5499, DOI 10.1109/ICCV.2007.4409068, lire en ligne)
  • (en) M. Lalonde, D. Byrns, L. Gagnon, N. Teasdale et D. Laurensdeau, « Real-time eye blink detection with GPU-based SIFT tracking », IEEE, vol. Computer and Robot Vision 4th Canadian Conference,‎ , p. 481-487 (ISBN 0-7695-2786-8, DOI 10.1109/CRV.2007.54, lire en ligne)
  • (en) A.K. Singh, P. Joshi et G.C. Nandi, « Face recognition with liveness detection using eye and mouth movement », IEEE, vol. Signal Propagation and Computer Technology (ICSPCT),‎ , p. 592-597 (ISBN 978-1-4799-3139-2, DOI 10.1109/ICSPCT.2014.6884911, lire en ligne)
  • (en) Jiamin Bai, Tian-Tsong Ng, Xinting Gao et Yun-Qing Shi, « Is physics-based liveness detection truly possible with a single image? », IEEE, vol. Circuit and Systems (ISCAS),‎ , p. 3425-3428 (ISBN 978-1-4244-5308-5, DOI 10.1109/ISCAS.2010.5537866, lire en ligne)
  • (en) Robert W. Frischholz et Ulrich Dieckmann, « A Multimodal Biometric Identification System », BioID, vol. 33,‎ (lire en ligne)
  • (en) Z. Hammal,, N. Eveno et A. Caplier, « Parametric models for facial features segmentation », ScienceDirect, vol. Signal Processing Volume 86,‎ (DOI doi:10.1016/j.sigpro.2005.06.006, lire en ligne)
  • (en) N. Erdogmus et S. Marcel, « Spoofing Face Recognition with 3D Masks », IEEE, vol. Information Forensics and Security, IEEE Transactions on (Volume:9, Issue: 7) Biometrics Compendium,‎ (ISSN 1556-6013, DOI 10.1109/TIFS.2014.2322255, lire en ligne)

Articles connexes

Émission de radio

Documentaire

Lien externe

Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplémentaires peuvent s’appliquer aux fichiers multimédias.