Aller au contenu

Système de reconnaissance faciale

Un article de Wikipédia, l'encyclopédie libre.
(Redirigé depuis Reconnaissance de visages)

Un système de reconnaissance faciale est une application logicielle visant à reconnaître automatiquement une personne grâce à son visage. Il s'agit d'un sujet particulièrement étudié en vision par ordinateur, avec de très nombreuses publications et brevets, et des conférences spécialisées.

La reconnaissance de visage a de nombreuses applications en vidéosurveillance, sécurité, biométrie, photographie, médecine, robotique, indexation d'images et de vidéos, recherche d'images par le contenu, etc. Ces systèmes sont généralement utilisés à des fins de sécurité publique ou de protection de la vie privée ou de données privées ou d'entreprises, dont pour déverrouiller ordinateur/mobile/console, mais aussi en domotique. Le fonctionnement de ces systèmes se base sur une ou plusieurs caméras pour reconnaître l'utilisateur[1].

Ces systèmes peuvent également être utilisés, supposément pour faciliter la vie de l'utilisateur, comme le font par exemple certains réseaux sociaux sur internet (Facebook[2],[3], Google+[4]) ou certaines applications mobiles (NameTag[5], FaceRec[6]) pour identifier des visages sur des images. Ces systèmes se basent alors sur des photos et/ou vidéos d'une ou plusieurs personnes.

La détection de visage, qui consiste à repérer qu'un visage est présent sur une image, est l'une des possibles phases techniques de la reconnaissance faciale[7].

L'une des premières tentatives de reconnaissance faciale est faite par Takeo Kanade en 1973 lors de sa thèse de doctorat à l'Université de Kyoto[8],[9].

Le , Facebook lance un service de reconnaissance faciale accessible à tous[10]. Celui-ci a été vivement critiqué par un bon nombre d'associations de protection de la vie privée et du droit à l'oubli. Sous cette pression, Facebook a dû abandonner ce service le en Europe[11].

Un autre projet de reconnaissance de visage, appelé DeepFace, développé par le groupe de recherche de Facebook a également commencé à voir le jour début 2015. Cet outil vise à reconnaître un visage, quelle que soit son orientation, pour y associer une personne. DeepFace permet donc de faire correspondre un très grand nombre de photos différentes d'une même personne, même si celle-ci n'est pas identifiée explicitement. Pour réaliser cela, le système est composé d'un réseau de neurones artificiels entraîné via l'apprentissage profond sur des millions d'images[12].

Cette technologie évolue rapidement ; avec des avancées spectaculaire dans les années 2010/2020, tant au niveau de l'efficacité des algorithmes employés qu'au niveau de la masse de données pouvant être traitée par les programmes. Elle se diffuse via de nombreux outils et cas d'usage. Depuis fin 2018, les annonces et études se multiplient faisant entrer progressivement la reconnaissance faciale dans le quotidien. En 2019, Cydral Technology diffuse un système utilisable depuis un simple téléphone ; il propose de ce fait le tout premier moteur de recherche grand public[13] fonctionnant à l'image de la recherche inversée proposée par Google mais pour l'identification de profils exclusivement.

En , le New York Times révèle l'existence de la société Clearview AI qui commercialise auprès d'agences de sécurité une application de reconnaissance faciale qui permet d'identifier quelqu'un à partir d'une photographie[14]. L'auteur de l'enquête dénonce le fait que cette application outrepasse le respect de la vie privée[15],[16].

En , la société espagnole Herta Security remporte un label d'excellence pour une technologie capable d'analyser des visages et de surveiller la foule. Cette technologie pourrait être utilisée en cas de nouvelle vague de Covid-19. Ce logiciel, nommé Aware, est capable de vérifier la distanciation sociale et d'identifier les personnes à différents points de contrôles[17].

Les systèmes de reconnaissance faciale tendent à se généraliser, par exemple utilisés sur les réseaux sociaux sur internet pour identifier quelqu'un sur une photo, sur les smartphones pour les déverrouiller, ou par des services de sécurité pour reconnaître des individus recherchés. Ces utilisations peuvent être séparées en deux principales catégories : la sécurité et l'assistance à l'utilisateur.

De plus, il existe deux types de tâches[18] :

  • L'identification, appelée aussi one-to-many (1:N), consiste à déterminer l'identité d'un individu parmi N identités connues, présentes dans une base.
  • La vérification, appelée aussi one-to-one (1:1), consiste à vérifier que l'identité prétendue est bien la bonne.

Réseaux sociaux

[modifier | modifier le code]

En ce qui concerne l'utilisation de réseaux sociaux sur internet, comme pour Facebook[2] ou Google+[4], lors d'un ajout de photo ou de vidéo, le visage est détecté puis un algorithme suggère une liste de personnes pouvant correspondre au visage repéré sur l'image ou la vidéo grâce aux images identifiant déjà chaque individu.

Vérification de l'identité

[modifier | modifier le code]

La reconnaissance faciale peut permettre ou non l'accès à un logement ou une pièce (Domotique) : différents équipements comme SekuFACE[19] ou iFace[20] utilisent en effet la reconnaissance faciale pour s'assurer de l'identité de l'utilisateur.

Cet élément peut également se déplacer : différents équipements existent en effet pour des véhicules comme Mobii[21]. Ou encore un environnement virtuel, cet environnement pouvant être :

  • Les données d'un ordinateur, comme les exemples de systèmes Toshiba Face Recognition[22] ou Blink[23].
  • Les données d'une console, comme les exemples de la PlayStation 4[24] ou de la Xbox One[25].
  • Les données d'un smartphone, il est alors possible de trouver des systèmes qui utilisent les capteurs du téléphone[26] ou non (systèmes mis en place dès Android 4.0[27] ou Windows Phone[28]).

Les systèmes de reconnaissance faciale, au-delà de la protection des données, permettent donc également d'interdire l'accès et l'utilisation d'éléments matériels ou immatériels.

La sécurité est le principal domaine d'application des systèmes de reconnaissance faciale.

Le système s'assure dans ce cas que l'utilisateur est bien valide, avant de l'autoriser à accéder à un élément donné. Cela peut être utilisé dans un lieu public :

  • Pour autoriser l'accès à un avion afin de s'assurer qu'un futur passager n'est pas recherché, comme cela est le cas à Sotchi[29].
  • Pour autoriser l'accès à un pays, comme cela est fait dans plusieurs aéroports en France (PARAFE) et plusieurs autres pays où cela est utilisé pour vérifier l'identité des citoyens avec une passeport biométrique éligible et expédier le passage de frontières pour eux.
  • Pour suivre et potentiellement identifier une personne à partir des images d'un système de vidéosurveillance.

Surveillance policière

[modifier | modifier le code]

Un des domaines importants d'application de ces systèmes est la surveillance policière. L'AI et la reconnaissance des visages et des individus facilitent la recherche d'identité d'une personne à l'aide d'une photo ou d'une vidéo ou le suivi de profils dans une foule filmée, ou de personnes photographiées, comme avec le système de reconnaissance faciale développé actuellement par le FBI appelé NGI[30], ou celui actuellement utilisé par la NSA[31] qui se base entre autres sur les images postées sur les réseaux sociaux sur internet.

Le logiciel de Clearview AI permet de comparer une photographie avec une base de données de plus de trois milliards de photographies initialement publiées sur Internet. Il était utilisé par plus de 600 bureaux de police nord-américains en [32].

Dans de nombreuses vidéos liées au contexte de cambriolages, attaques et violations de droits humains, les visages sont masqués par des accessoires (masques, couvre-chefs…). Ceux-ci ne laissent qu’une faible partie du visage libre et rendent les identifications beaucoup plus compliquées. Des chercheurs se basent intégralement sur l’analyse de telles images et créent des algorithmes pour reconnaître une personne en se basant sur une petite partie visible du visage, mais ces systèmes ne sont pas encore assez développés pour être fiables dans un grand nombre de cas[33]. Un traumatisme du visage peut aussi perturber la reconnaissance faciale[34].

Le système de reconnaissance faciale serait utilisé dans le paiement du métro de Pékin, selon le Beijing Daily[35].

Les systèmes de reconnaissance faciales peuvent également :

Industrie du jeu

[modifier | modifier le code]

Certaines entreprises peuvent utiliser la reconnaissance faciale à des fins de sûreté et de sécurité. Par exemple, certains casinos utilisent des systèmes de reconnaissance faciale pour identifier les tricheurs connus, et aussi pour permettre aux personnes ayant une dépendance aux jeux de s'inscrire volontairement dans un programme d'aide[40].

Pour le marketing, certaines entreprises utilisent la reconnaissance faciale pour identifier les clients importants et leur envoyer des publicités ciblées. Des fournisseurs aux États-Unis ou au Japon utilisent par exemple cette technologie pour mieux identifier respectivement l'âge d'un client qui essaie d'acheter illégalement de l'alcool ou des cigarettes[39].

Recensements

[modifier | modifier le code]

Depuis quelques années, la reconnaissance faciale est aussi utilisée pour le suivi de la présence d’étudiants ou employés à des événements. Par exemple, les universités américaines utilisent cette technologie pour identifier les étudiants présents en classe et suivre leur assiduité aux cours. Certaines entreprises l’utilisent par exemple pour suivre la présence des employés à des conférences ou des événements[39].

Risques et dérives

[modifier | modifier le code]

Des agences gouvernementales, des universités et certains représentants de l'industrie ont souligné les problèmes de confidentialité et de sécurité des données concernant les utilisations commerciales de la reconnaissance faciale, en particulier quand ces technologies sont utilisées sans législation adéquate. La préoccupation principale est que les données recueillies par les entreprises pourraient être utilisées, partagées ou vendues sans le consentement des consommateurs[39].

Comment fonctionnent les technologies de reconnaissance faciale ? il faut distinguer trois usages principaux qui se basent sur des moyens et techniques dédiés : la vérification de l’identité par rapport un document personnel, la recherche d'une personne référencée dans une base de données, l'identification systématique à la volée dans un espace public[41].

La méthode de recherche d'une personne référencée dans une base de données sur trois phases : la détection de visage qui repère un visage, l'analyse du visage qui donne un résultat numérique, et la reconnaissance qui compare ce résultat avec la base de données de visages enregistrés.

Il faut donc, avant toute tentative d'identification, constituer une base de données contenant pour chaque utilisateur soit une capture initiale[42], soit plusieurs. Dans le cas où plusieurs captures sont effectuées, une moyenne de celle-ci est alors stockée[43], ce qui permet au système de mieux s'adapter à divers paramètres pouvant varier au moment de la reconnaissance (apparition de cernes/rides, luminosité ambiante, maquillage…).

Une fois l'analyse effectuée, la reconnaissance effectue donc la comparaison entre le modèle obtenu et ceux stockés dans la base de données. On parle alors de reconnaissance 1 à 1 si on avait une seule capture initiale stockée dans la base de données initialement, ou de reconnaissance 1 à N si on en avait plusieurs.

Reconnaissance 2D

[modifier | modifier le code]

Considérée comme la méthode « classique » de reconnaissance faciale[44], cette méthode consiste à reconnaître l'utilisateur à partir d'une photo de lui. Cette photo peut être capturée par une caméra dans un but de sécurité, ou simplement être déjà enregistrée dans le cadre d'une assistance à l'utilisateur. La reconnaissance est alors effectuée par un algorithme qui peut s'appuyer sur différents éléments[45], comme la forme d'éléments du visage[46] tels que les yeux et leur écartement, la bouche, …

Deux catégories d'algorithmes sont alors distinguées :

  • La première catégorie crée une image géométrique de l'utilisateur en fonction de différents paramètres (tailles des éléments du visage, forme et distance entre eux)[47]. Les paramètres récupérés sont alors encodés puis comparés avec ceux présents dans la base de données.
  • La seconde catégorie encode numériquement l'image, en utilisant les algorithmes de Fourier[48], les eigenfaces[47] pour créer des vecteurs de poids, ou encore des calculs de moyennes sur certaines zones de l'image[43]

Reconnaissance 3D

[modifier | modifier le code]
Schéma d'une modélisation 3D pouvant être issue d'une reconnaissance faciale.

Cette méthode est considérée comme une amélioration de la reconnaissance 2D. En effet, elle crée un modèle 3D[44] depuis plusieurs photos effectuées successivement ou depuis une vidéo. Cela permet d'avoir différents points de vue de la personne à reconnaître afin de créer le modèle 3D.

De nombreux algorithmes existent en ce qui concerne l'analyse, chacun se basant sur un ou plusieurs éléments du visage (comme l'orientation du nez[49]) pour créer le modèle 3D[50],[51] correspondant au visage de l'utilisateur.

La fiabilité des différents systèmes de reconnaissance faciale se vérifient selon plusieurs indicateurs[26],[44] :

  • Le taux de bonne reconnaissance : le système reconnaît bien l'utilisateur qu'il devait reconnaître.
  • Le taux de mauvaise reconnaissance : le système reconnaît un utilisateur mais en l'identifiant comme un autre.
  • Le taux de faiblesse aux attaques photo : le système est trompé par une attaque photo.
  • Le taux de faiblesse aux attaques vidéo : le système est trompé par une attaque vidéo.

Paramètres augmentant la fiabilité

[modifier | modifier le code]

Différents paramètres entrent en compte pour accroître les performances :

  • Le nombre de photos/vidéos en base de données[44] : cela permet de mieux modéliser l'utilisateur, et donc de mieux le reconnaître ensuite.
  • Le nombre d'images capturées lors de la reconnaissance[44] : cela permet de mieux modéliser l'utilisateur qui souhaite s'identifier, et donc de mieux vérifier qu'il correspond au modèle en base de données.
  • La luminosité[26],[44] : une meilleure luminosité sur le visage de l'utilisateur permet de mieux reconnaître celui-ci en évitant de mal modéliser son visage en raison de « zones d'ombre ».
  • La proximité de l'utilisateur vis-à-vis de l'objectif[26],[44] : une meilleure proximité de l'utilisateur vis-à-vis de l'objectif permet une meilleure qualité d'image sur son visage, et donc une meilleure modélisation.
  • La qualité de l'image[26],[44] : pour la même raison que le paramètre précédent, une meilleure qualité permet une meilleure modélisation.

Performances

[modifier | modifier le code]

L'efficacité d'un système de reconnaissance faciale est établie en fonction de son taux de fiabilité, mais également en fonction du temps d'exécution qu'il lui faut pour effectuer la reconnaissance ainsi que pour établir le profil stocké en base de données.

Le tableau suivant résume les informations récupérées sur les différents systèmes évoqués.

Système utilisé Type de reconnaissance Constitution de la base de données Temps de reconnaissance moyen (sans échec)
Toshiba 3D 2 à 3 min 20 s
Android avec capteurs 2D Inconnu 5s
Android 4.0 2D 2 s < 1 s
Iphone 4S 2D 2 à 5 min < 1s
Xbox One Inconnu 5 s 1 à 5 s
PS4 3D 50 à 70 s < 2 s
Iphone X, 11, 12, 13 3D Inconnu < 1 s

Biais algorithmiques

[modifier | modifier le code]

En , la chercheuse Joy Buolamwini du Massachusetts Institute of Technology montre que les principaux systèmes de reconnaissance faciale (ceux d'IBM, Microsoft et Face ++) ont des biais algorithmiques et sont moins performants pour identifier les femmes et les visages à la peau foncée : Face ++ identifie 99,3 % des hommes, mais seulement 78,7 % des femmes et IBM atteint 77,6 % des peaux foncées contre des scores supérieurs à 95% pour les trois logiciels pour les peaux blanches). Selon l'étude, 93,6 % des erreurs faites par Microsoft concernaient ses sujets à la peau foncée, et 95,9 % de celles de Face ++ concernaient des femmes. La chercheuse explique que « les hommes à la peau claire sont surreprésentés [dans les bases de données des exemples], et aussi les personnes à la peau claire de manière générale[52]. » Ces différences peuvent entraîner des erreurs telles que l’identification erronée d’un acheteur en tant que voleur à l’étalage. En 2019, une étude réalisée par le Government Accountability Office des États-Unis sur 189 algorithmes de reconnaissance faciale utilisés dans le milieu commercial a conclu que les hommes blancs avaient le plus faible taux de faux positifs, tandis que les femmes noires avaient le taux le plus élevé, près de dix fois supérieur.

En 2023, aux États-Unis, le recours à la reconnaissance faciale par la police est de nouveau critiqué ayant identifiée comme suspecte une femme noire par cette technologie d’intelligence artificielle pour un crime qu’elle n’avait pas commis[53].

Actuellement, il n'y a pas de consensus sur les causes des différences de performance, y compris les facteurs environnementaux (tels que l'éclairage) ou les facteurs liés à la création ou au fonctionnement de la technologie. Par contre, beaucoup d’académiques supposent que cette différence d’efficacité est due, en partie, aux ensembles de données utilisés qui n’incluent pas suffisamment de données de certains groupes démographiques[54].

Il existe diverses méthodes qui peuvent potentiellement diminuer ces différences de performance[39]. Par exemple, des ensembles de données plus larges et plus représentatifs permettraient de développer la technologie de manière similaire pour les différents groupes démographiques. Pour faire cela, les experts conseillent l’utilisation de techniques permettant de supprimer aléatoirement les images d’un groupe surreprésenté[39]. Ensuite, la qualité de l’image étant un facteur clé dans l’évaluation de la performance de ces algorithmes, de nombreux experts pensent qu’il faudrait un meilleur contrôle des facteurs physiques et le respect de normes de qualité d’image. Une étude réalisée par des évaluateurs indépendants et mentionnée dans le rapport du Government Accountability Office des Etats-Unis de 2020 sur la reconnaissance faciale a montré qu’un mauvais éclairage rendait les analyses de reconnaissance faciale moins efficaces sur les femmes à peau foncée.

Le , un homme de 28 ans est arrêté et mis en détention plusieurs jours par un policier de Bâton rouge à la suite d'un mandat d'arrêt délivré basé sur le résultat d'un algorithme et malgré un poids et une taille très différentes du suspect. Il est libéré le après qu'il s'avère être victime d'un faux positif du fait de la couleur de sa peau. Les logiciels utilisés par la police de Bâton rouge sont celui de l'entreprise Clearview AI, qui annonce posséder la plus grande base de données de visages, et Morphotrak, de l'entreprise Idemia[55].

Failles du système

[modifier | modifier le code]

Comme tout élément ayant une utilité de sécurisation, les systèmes de reconnaissance faciale sont sujets à des attaques visant à les tromper en exploitant des failles. Trois principaux types d'attaques sont alors connus dans ce domaine pour tromper les systèmes de reconnaissance faciale.

Attaques photo

[modifier | modifier le code]

Le premier type d'attaque est l'attaque par photo[26],[44],[43]. En effet, montrer une photo au système semble être une bonne méthode pour tromper la caméra. L'efficacité de ce type d'attaque a été aidée par l'arrivée d'imprimantes ayant une résolution élevée, aussi nommée haute définition. Ces imprimantes permettent en effet d'imprimer une image très qualitative, trompant aisément la vigilance des systèmes.

Une autre possibilité consiste à utiliser des écrans à haute définition disponibles dans le commerce (écrans, smartphones) pour présenter une photo très détaillée et ainsi tromper le système.

Ce type d'attaque est devenu encore plus simple à effectuer avec l'apparition des réseaux sociaux sur internet et les très nombreuses photos postées par les utilisateurs.

Attaques vidéo

[modifier | modifier le code]

Ce deuxième type d'attaque consiste à présenter une vidéo à l'objectif de la caméra afin de tromper le système de reconnaissance faciale[26].

Des logiciels disponibles sur internet, appelés caméras virtuelles, tels que VirtualCamera[56] ou Manycam[57] permettent en effet de tromper le système de reconnaissance en lui présentant une vidéo comme si celle-ci provenait de sa propre caméra. Il est alors possible de présenter la vidéo d'une personne au système de reconnaissance afin de tromper celui-ci.

Ce type d'attaque s'est répandu avec l'arrivée des reconnaissances 3D, car il est très compliqué de tromper une reconnaissance d'un modèle 3D avec une simple photo, cette dernière présentant toujours la même posture d'un individu.

En revanche, la vidéo présente du mouvement et permet d'obtenir plusieurs postures du même individu, le système de reconnaissance 3D peut donc modéliser un modèle réel et être trompé.

Attaque avec un masque

[modifier | modifier le code]

La récente mise à disposition au grand public de l'impression tridimensionnelle crée également une faille pour les systèmes de reconnaissance faciale. En effet, cela permet de créer un masque[58] correspondant au visage de l'utilisateur. Il est alors facile d'imaginer l'utilisation d'un masque présentant un individu pour tromper un système de reconnaissance faciale.

Réponses à ces failles

[modifier | modifier le code]

Réponses aux attaques photo

[modifier | modifier le code]

Ce type d'attaque est principalement contré en multipliant le nombre de photos prises de l'utilisateur puis en :

  • Analysant s'il y a eu un clignement des yeux[59]. Étant donné que l'œil humain cligne 15 à 30 fois par minute[59], il est possible sur une courte analyse de repérer un clignement. Ce système reste tout de même faible face aux attaques vidéo, étant donné qu'une vidéo peut contenir les clignements des yeux de la personne à reconnaître.
  • Analysant les micro-mouvements[26],[60],[61] de l'utilisateur ou de son environnement. Une immobilité/stabilité (de l'utilisateur ou son environnement) parfaite lors de l'enregistrement peut en effet éveiller de lourds soupçons quant à la fiabilité de l'enregistrement.
  • Vérifiant la texture du visage photographié[62] (texture réelle et non similaire à celle d'une photo). Une texture trop floue ou irréelle montrera la non-fiabilité de l'image.

Réponses globales

[modifier | modifier le code]

Certaines techniques ont émergé pour contrer les trois types d'attaque. Celles-ci utilisent des événements totalement ou partiellement extérieurs à l'image :

  • En créant un modèle depuis des postures fixes de l'utilisateur dans un ordre précis (par exemple : profil gauche, profil droit, face).
  • Sur les smartphones, il est possible synchroniser les micro-mouvements ou mouvements du smartphone avec ceux de l'image/vidéo[26] afin de vérifier l'authenticité de celle-ci.
  • Sur les périphériques équipés de micro, il est possible de demander à l'utilisateur de parler[61],[63] et de vérifier que les mouvements de la bouche sur l'image/vidéo afin de vérifier la synchronisation des deux. De même, cela permet de faire une identification basée sur deux paramètres biométriques (la voix et le visage). Il est imaginable de lier d'autres paramètres biométriques avec la reconnaissance faciale, comme les empreintes digitales .
  • Vérifier la texture du visage en addition d'autres réponses pour rendre plus compliquée l'attaque.
  • Donner des instructions à l'utilisateur[26] (exemples : Tournez la tête vers la droite, Faites tourner la caméra autour de votre visage, Bougez la caméra vers le haut…). Il est alors possible de vérifier que l'utilisateur suit bien les instructions, ce qui est fiable en raison du côté l'aléatoire des instructions et la précision de celles-ci.

Enjeux sur les libertés

[modifier | modifier le code]

Les systèmes de reconnaissance faciale sont construits autour du déploiement de caméras de videosurveillance connectées à un réseau de télécommunications et à des applications d'intelligence artificielle. Sur ces technologies s'est défini le concept de « ville sûre », extension de la ville intelligente. L’équilibre entre libertés et sécurité est en tension[64]. Sous couvert de sécurité des personnes et des biens, cela risque de mettre en jeu dans de nombreux pays le droit à la vie privée et exercer un contrôle social contraire aux libertés fondamentales[65],[66]. La loi européenne sur les données, étendant le champ de la loi française « informatique et libertés » de 1978, citée comme modèle à travers le monde, spécifie : « L’informatique doit être au service de chaque citoyen. Elle ne doit porter atteinte ni à l’identité humaine, ni aux droits de l’homme, ni à la vie privée, ni aux libertés individuelles ou publiques»[67].

La reconnaissance faciale peut générer de faux positifs ayant des conséquences sur le droit des personnes[68],[53],[55], en particulier par les biais algorithmiques ou quand les vidéos sont de basse qualité, de faible résolution et ne permettent pas de générer assez de données pour que les systèmes de reconnaissance faciale puissent mesurer suffisamment de caractéristiques du visage et identifier sans erreur la personne[69].

Les entreprises chinoises fournissent plusieurs États du continent en systèmes de reconnaissance faciale associés aux caméras de vidéosurveillance. CloudWalk Technology, l’un des leaders chinois du secteur basé à Canton, dans le sud du pays, a coopéré avec le gouvernement zimbabwéen pour mettre en place une reconnaissance faciale à grande échelle, le déploiement aux aéroports et aux frontières sera la première étape[70].

En 2014, Huawei a offert à l'Ouganda 20 caméras de surveillance équipées de technologies de reconnaissance faciale d’une valeur de 702 000 euros. Les autorités ougandaises ont, par la suite, attribué à Huawei déjà fournisseur de son réseau de télécommunications, un marché de caméras de surveillance. Ces outils de surveillance permettent de renforcer l'appareil répressif de l'état[71]. Les pouvoirs en place ont recouru à la société chinoise Huawei pour déployer ces systèmes de «safe city». Les images permettent une reconnaissance faciale et sont transmises en temps réel aux services de sécurité[72],[73].

SenseTime et Megvii sont les deux plus importantes sociétés chinoises spécialistes de la reconnaissance faciale. Les usages commerciaux ou pour la surveillance des citoyens en lien avec le gouvernement sont très développés. En 2018, la Chine comptait déjà 349 millions de caméras de vidéosurveillance[74].

À terme, il est prévu que plus de 500 millions de caméras de vidéosurveillance seront déployées à travers le pays. Elles seront associées aux technologies de reconnaissance faciale et d’intelligence artificielle. Cela constituera « le réseau le plus étendu et sophistiqué de vidéosurveillance au monde » selon la BBC[75],[76].

Huawei développe et commercialise, son concept de « ville sûre » basée sur la vidéosurveillance intelligente. Ces technologies combinées ont mené à un contrôle social très développé mettant en péril les libertés individuelles (notation sociale base d'un système de crédit social, « pilori » numérique sur écran d'affichage)[66],[77].

« Le Xinjiang fait l’objet d’une surveillance électronique permanente de la part de Pékin, qui y utilise toutes les technologies les plus intrusives : reconnaissance faciale, fichage ADN, vidéosurveillance permanente, drones, géolocalisation des téléphones…[78]. »

À la suite de la pandémie de Covid-19, les autorités chinoises renforcent la surveillance de masse et étendent les mesures restrictives des libertés, donnant l’image d’une époque ou la surveillance fait penser à Big Brother du roman 1984 de George Orwell[79].

États-Unis

[modifier | modifier le code]

Aux États-Unis, « les forces de police utilisent la reconnaissance faciale pour pister des délinquants. C'est le cas, notamment, à New York, Boston, Detroit, Las Vegas, Orlando, San José ou dans l'État du Colorado (…). La technologie est aussi utilisée dans les stades ou les aéroports, comme moyen de surveillance. Même les services de l'immigration en sont clients, pour reconnaître une personne en situation illégale déjà arrêtée par le passé. » Par contre « San Francisco bannit l'usage de la reconnaissance faciale par la police et ses différentes agences municipales[80] ». Les inquiétudes portent sur de possibles discriminations ou de mauvais usages de la reconnaissance faciale, d'autres villes américaines pourraient suivre cet exemple. 85 ONG, dont American Civil Liberties Union, 55 chercheurs ont demandé aux entreprises telles que Amazon, Microsoft et Google de cesser de vendre cette technologie aux autorités[81]. D'autres entreprises, telles Facebook et la jeune pousse Clearview AI qui a séduit 600 services de police, s'intéressent à ce marché[82],[83]. Une régulation de cette technologie par une loi de protection des données à l’échelle des États-Unis semble nécessaire.

En , Amazon annonce qu'il interdit à la police d’utiliser son logiciel de reconnaissance faciale pendant un an. Le logiciel d'Amazon a pour nom Rekognition. Le contexte social actuel marqué de manifestations contre les violences policières et le racisme aux États-Unis a été un élément de la décision[84],[85].

En , IBM annonce qu'il arrête la vente de logiciels de reconnaissance faciale, et ne mènera plus de projets de recherche liés à cette technologie. Son PDG prend une position plus générale dans un texte adressé au Congrès américain « IBM s'oppose fermement et ne tolérera pas l'utilisation de toute technologie, y compris la technologie de reconnaissance faciale proposée par d'autres fournisseurs, pour la surveillance de masse, le contrôle au faciès, les violations des droits de l'Homme et des libertés fondamentales ou tout autre objectif qui ne serait pas conforme à nos valeurs et à nos principes de confiance et de transparence »[86].

En , Microsoft annonce qu'elle arrête la vente de logiciels de reconnaissance faciale à la police « tant qu’il n’y aura pas de législation fédérale solide fondée sur les droits humains », ainsi que Google tant que les autorités ne mettent pas en place de règles et garde-fous[87].

Utilisées par des logiciels reconnaissance faciale mis en place par les autorités fédérales, des images de vidéosurveillance de la frontière américaine ont été piratées. Il s'agit des photos de conducteurs et de plaques d’immatriculation des véhicules ayant traversé un seul point de passage de la frontière américaine sur une durée de six semaines, 100 000 personnes seraient concernées. Le président de la commission de la sécurité intérieure à la Chambre des représentants, le démocrate Bennie Thompson, s’est alarmé d’une « atteinte majeure à la vie privée ». « Nous devons veiller à ne pas étendre l’utilisation de la biométrie au détriment de la vie privée des Américains »[88].

Selon une plainte déposée mercredi à Détroit, un Américain noir a été arrêté à tort à cause de l’usage par la police de la technologie de reconnaissance faciale. Il s’agit de la première erreur de ce type documentée aux États-Unis. La technologie de reconnaissance faciale, utilisée depuis plusieurs années par différents services de police aux États-Unis sans cadre légal fédéral, est accusée de manquer de fiabilité dans l’identification des minorités, notamment noires ou asiatiques[68].

Le "Biometric Information Privacy Act", interdit aux entreprises de l'Illinois de partager certaines données personnelles sensibles. Clearview AI doit maintenir un formulaire de désinscription qui permet aux habitants de l’Illinois de refuser d’apparaître dans la recherche photo, quel que soit le client concerné (Il en est de même en Californie disposant de règles similaires de protection des données personnelles). À partir de mai 2022, aux États-Unis, Clearview AI ne pourra plus vendre sa base de données biométriques à des acteurs privés. Ces résultats ont été obtenus après deux ans de bataille judiciaire menée par l’Union américaine pour les libertés civiles (ACLU). La procédure judiciaire s'est déroulée dans l’État de l’Illinois. Il a été acté que la police de cet État ne pourra plus utiliser les services de Clearview AI pendant cinq ans, ce qui ne sera pas le cas des services fédéraux[89].

En France, la mairie de Valenciennes a reçu gratuitement d'Huawei des équipements valant 2 millions d'euros[90]. Huawei a pu ainsi expérimenter son système de « caméras intelligentes » dans cette ville grâce à un accord passé avec le maire Jean-Louis Borloo. Il a été nommé au conseil d'administration de Huawei France quelques années plus tard[77].

D'autres municipalités (Nice, Marseille, Toulouse, La Défense…)[91] se laissent convaincre par les industriels de la sécurité dont Thales, Engie Ineo, Ercom, Idemia qui voient un marché à conquérir.

Idemia, est l’un des leaders mondiaux du secteur de la biométrie avec 15 000 collaborateurs et 2,3 milliards d’euros de chiffre d’affaires revendiqués.

Dans un rapport publié en 2020, Amnesty International dénonce plusieurs entreprises européennes dont Idemia qui ont doté la Chine de matériels de surveillance, notamment de reconnaissance faciale[92]. En particulier, Idemia a vendu un système de reconnaissance faciale à la police de Shanghaï.

La nocivité effective des villes sûres est totalement dépendante des autorités en charge et met en alerte les associations de défense des droits de l'homme[93],[91].

Pour éviter ces expériences et possibles extensions en France[94] ou en Europe, et l'avènement d'une société de surveillance, il faut s'assurer que ces projets[95] soient conformes, avec les constitutions, aux règles du RGPD, et qu'ils soient contrôlés[96] par les autorités indépendantes de type CNIL informatique et libertés.

L'entreprise Clearview AI fait l'objet de plusieurs controverses et procédures judiciaires vis-à-vis des milliards d'images qu'elle a collectées sur Internet[97],[98]. En décembre 2021, La CNIL met en demeure l’entreprise Clearview AI, lui demande de supprimer les données collectées en France et lui enjoint de cesser ce type de pratique sur le territoire français« Clearview AI ne dispose pas non plus d’un intérêt légitime à collecter et utiliser ces données, notamment au regard du caractère particulièrement intrusif et massif du procédé qui permet de récupérer les images présentes sur Internet de plusieurs dizaines de millions d’internautes en France. ». Les activités de l'entreprise font déjà l’objet de multiples enquêtes dans le monde[99]. Clearview AI n'ayant pas donné suite à la mise en demeure, la CNIL la condamne à une amende de 20 millions d'euros le , à laquelle elle a deux mois pour se conformer sous peine d'une astreinte de 100 mille euros d'amende supplémentaires par jour de retard[100],[101].

En 2022, l'association la Quadrature du Net dépose trois plaintes collectives contre le Ministère de l’Intérieur. Elle dénonce l’absence de « proportionnalité » dans les installations de caméras, ainsi que les usages de deux gigantesques fichiers de photos (fichiers TAJ : Traitement des Antécédents Judiciaires qui comprend « huit millions » de photos de visages, fichiers TES : Titres Électroniques Sécurisés qui comportent les photos de tout demandeur de carte d’identité ou de passeport)[102].

En juin 2023, une loi en débat au Sénat entend réguler les technologies de surveillance basée sur la reconnaissance biométrique dans l’espace public et ouvre la voie à un champ d’expérimentation inédit pour la reconnaissance faciale[103].

Royaume-Uni

[modifier | modifier le code]

Dès 2006, le Royaume-Uni abritait 4,2 millions de caméras de vidéosurveillance (dans la rue, sur les autoroutes, dans les trains, les bus, les couloirs du métro, les centres commerciaux, les stades). Un Londonien pouvait être déjà filmé jusqu'à trois cents fois par jour[104],[105].

Le débat monte au Royaume-Uni sur l'utilisation et la généralisation de la technologie reconnaissance faciale. La présence des caméras dotées de cette technologie, dans les quartiers londonien de King's Cross et potentiellement dans le quartier d'affaire Canary Wharf. Plus de 150 000 personnes passant par jour dans ces quartiers seraient scrutées. L'utilisation de la reconnaissance faciale dans l'espace public pose question. Les lois sur la protection des données imposent le consentement des personnes observées. Les autorités chargées des libertés publiques sont préoccupées, le Royaume-Uni est devenu l'un des pays les plus ouverts à l'usage de cette technologie pour des motifs de surveillance[106].

Les autorités de protection des données britannique et australienne ont ouvert en 2020 une enquête visant l’entreprise Clearview AI spécialisée dans la reconnaissance faciale et qui serait capable de comparer n’importe quelle photo d’un individu à sa base de données de trois milliards de photos récupérées automatiquement sur le Web et les réseaux sociaux[83]. En , la Information Commissioner's Office condamne Clearview AI à une amende de 7,5 millions de livres sterling pour avoir illégalement collecté les données de millions de citoyens britanniques. Elle exige également que l'entreprise cesse de récupérer les photographies de citoyens du Royaume-Uni et qu'elle « supprime les données des résidents britanniques de ses systèmes »[107].

En , la cour d’appel de Londres a jugé que l’utilisation de la reconnaissance faciale par la police galloise n’était pas suffisamment encadrée et empiétait trop sur la vie privée[108]. L'arrêt a souligné qu’il n’existait pas d’indications claires sur les lieux où cette technologie pouvait être utilisée par la police ni sur les modalités conduisant à l’inscription sur la « liste de surveillance ».

En Russie, à l'occasion de la pandémie mondiale de covid-19, les voyageurs arrivant de zones à risque sont soumis à de rigoureuses quarantaines. À Moscou, 12 millions de habitants, le système de reconnaissance faciale de la ville, fort d’au moins 100 000 caméras de vidéosurveillance, est mis au service de ces contrôles, de même que le très efficace système d’e-gouvernance, qui permet de maintenir un lien constant avec les citoyens[109]. Avant même l'irruption de la pandémie, Il y avait un projet de généraliser l’utilisation des systèmes de reconnaissance faciale, une réelle menace pour la vie privée et les droits humains que dénonce les associations locales pour les droits civiques[110].

En Suisse, entre 2018 et 2020, les polices zurichoise et saint-galloise auraient recouru illégalement au logiciel américain Clearview AI[111]. En 2022, une pétition demandant « l’interdiction de la surveillance biométrique de masse dans les villes », signée par plus de 10 000 personnes, est remise aux plus grandes villes du pays[111].

Les autorités ont annoncé leur intention d'utiliser les technologies de reconnaissance faciale pour identifier les femmes qui ne se soumettent pas à l'obligation de porter le voile[112],[113]. En janvier 2023, le fait que des femmes sont arrêtées chez elles pour non port du voile accrédite l'hypothèse que cette annonce a été mise en application[114].

Notes et références

[modifier | modifier le code]
  1. « Comment fonctionnent les technologies de reconnaissance faciale ? », Le Monde, (consulté le ).
  2. a et b Reconnaissance Faciale de Facebook.
  3. Aubin Laratte, « Facebook supprime la reconnaissance faciale de ses services », Aujourd'hui en France High-tech,‎ (lire en ligne, consulté le ).
  4. a et b Reconnaissance faciale Google
  5. NameTag
  6. FaceRec
  7. Commission Nationale de l'Informatique et des Libertés, « Reconnaissance faciale » Accès libre, sur CNIL (consulté le ).
  8. Takeo Kanade, Picture processing by computer complex and recognition of human faces, Department of Information Sciences, Kyoto University, Japan, 1973.
  9. (en) Xiaozheng Zhang et Yongsheng Gao, « Face Recognition accross pose: a review », Pattern Recognition,‎ .
  10. « Facebook critiqué pour son système de reconnaissance faciale », Le Monde, .
  11. « Facebook suspend sa reconnaissance faciale en Europe », Le Monde avec AFP, .
  12. « "DeepFace", le nouveau système de reconnaissance faciale de Facebook qui fait froid dans le dos »(Archive.orgWikiwixArchive.isGoogleQue faire ?), sur Le Huffington Post (consulté le ).
  13. « "Facezam", un moteur de recherche d'images exploitant exclusivement la reconnaissance faciale », sur fastface.eu.
  14. (en) « The Secretive Company That Might End Privacy as We Know It », The New York Times, .
  15. (en) Jon Porter, « Go read this NYT expose on a creepy new facial recognition database used by US police », sur theverge.com, .
  16. « Reconnaissance faciale : une start-up analyse les photos des réseaux sociaux pour la police américaine », sur Le Monde.fr, (consulté le ).
  17. Samuel Stolton, « Une technologie de reconnaissance faciale reçoit le label d’excellence de la Commission », sur EurActiv, (consulté le ).
  18. (en) Rabia Jafri et Hamid R. Arabnia, « A Survey of Face Recognition Techniques », Journal of Information Processing Systems, vol. 5, no 2,‎
  19. SekuFACE.
  20. iFace.
  21. Mobii
  22. Toshiba Face Recognition
  23. Blink
  24. Reconnaissance Faciale Playstation 4
  25. Xbox One
  26. a b c d e f g h i et j Sensor-Assisted Facial Recognition: An Enhanced Biometric Authentication System for Smartphones
  27. Reconnaissance Faciale Android
  28. Reconnaissance Faciale sur Windows Phone
  29. Reconnaissance faciale à l'aéroport de Broadway
  30. NGI
  31. Système de reconnaissance faciale utilisé par la NSA.
  32. (en) Igor Bonifacic, « Google tells facial recognition startup Clearview AI to stop scraping photos », sur Engadget, (consulté le ).
  33. Felix Juefei-Xu, Khoa Luu et Marios Savvides, « <italic>Spartans</italic>: Single-Sample Periocular-Based Alignment-Robust Recognition Technique Applied to Non-Frontal Scenarios », IEEE Transactions on Image Processing, vol. 24, no 12,‎ , p. 4780–4795 (ISSN 1057-7149 et 1941-0042, DOI 10.1109/tip.2015.2468173, lire en ligne, consulté le )
  34. Oliver W Morgan, Pongruk Sribanditmongkol, Clifford Perera et Yeddi Sulasmi, « Mass Fatality Management following the South Asian Tsunami Disaster: Case Studies in Thailand, Indonesia, and Sri Lanka », PLoS Medicine, vol. 3, no 6,‎ , e195 (ISSN 1549-1676, DOI 10.1371/journal.pmed.0030195, lire en ligne, consulté le )
  35. Voir sur french.peopledaily.com.cn.
  36. M. Enache, "A study on face recognition with applications in prosopagnosia and management of patients," 2017 E-Health and Bioengineering Conference (EHB), Sinaia, Romania, 2017, pp. 257-260, doi: 10.1109/EHB.2017.7995410.
  37. Jafri, Rabia & Ali, Syed & Arabnia, Hamid. (2013). Face recognition for the visually impaired.
  38. (en) « Face Recognition Tool for the Blind », sur sbir.gov, (consulté le ).
  39. a b c d e et f (en) U. S. Government Accountability Office, « Facial Recognition Technology: Privacy and Accuracy Issues Related to Commercial Uses », sur gao.gov (consulté le ).
  40. (en) « National Retail Security Survey 2019 », sur NRF (consulté le ).
  41. Romain Imbach, Marianne Pasquier Martin Untersinger, « Comment fonctionnent les technologies de reconnaissance faciale ? », sur Le Monde.fr, (consulté le ).
  42. Face recognition from a single image per person: A survey
  43. a b et c 100% Accuracy in Automatic Face Recognition
  44. a b c d e f g h et i 2D and 3D face recognition: A survey
  45. View-Based and Modular Eigenspaces for Face Recognition
  46. Parametric models for facial features segmentation.
  47. a et b Face recognition: A literature survey
  48. Live face detection based on the analysis of Fourier spectra
  49. Multiple Nose Region Matching for 3D Face Recognition under Varying Facial Expression.
  50. Face Recognition Based on Fitting a 3D Morphable Model
  51. 3D Face Recognition Using Simulated Annealing and the Surface Interpenetration Measure.
  52. Perrine Signoret, « Une étude démontre les biais de la reconnaissance faciale, plus efficace sur les hommes blancs », sur lemonde.fr, (consulté le ).
  53. a et b « Aux Etats-Unis, le recours à la reconnaissance faciale par la police de nouveau critiqué », sur LeMonde.fr avec AFP, (consulté le ).
  54. (en) P Jonathon Phillips, Fang Jiang, Abhijit Narvekar et Julianne Ayyad, « An other race effect for face recognition algorithms », Dx Doi, National Institute of Standards and Technology,‎ (lire en ligne, consulté le )
  55. a et b (en) John Simerman, « JPSO used facial recognition technology to arrest a man. The tech was wrong. », sur le site nola.com, (consulté le ).
  56. VirtualCamera
  57. Manycam
  58. Spoofing Face Recognition with 3D Masks
  59. a et b Eyeblink-based Anti-Spoofing in Face Recognition from a Generic Webcamera.
  60. Real-time eye blink detection with GPU-based SIFT tracking
  61. a et b Face recognition with liveness detection using eye and mouth movement
  62. Is physics-based liveness detection truly possible with a single image?
  63. A Multimodal Biometric Identification System
  64. Claire Legros, Antoine Courmont, « La crise du coronavirus accélère la recomposition de la gouvernance de la ville numérique », Le Monde, (consulté le ).
  65. Félix Tréguer, « La « ville sûre » ou la gouvernance par les algorithmes », sur monde-diplomatique.fr, (consulté le ).
  66. a et b Sylvain Louvet, « Tous surveillés - 7 milliards de suspects »(Archive.orgWikiwixArchive.isGoogleQue faire ?), sur arte.tv, .
  67. « Reconnaissance faciale : un nécessaire débat », Le Monde, (consulté le ).
  68. a et b « Etats-Unis : un Américain noir arrêté à tort à cause de la technologie de reconnaissance faciale », Le Monde avec AFP, (consulté le ).
  69. Jay D. Aronson, « Computer Vision and Machine Learning for Human Rights Video Analysis: Case Studies, Possibilities, Concerns, and Limitations », Law & Social Inquiry, vol. 43, no 04,‎ , p. 1188–1209 (ISSN 0897-6546 et 1747-4469, DOI 10.1111/lsi.12353, lire en ligne, consulté le )
  70. Sébastien Le Belzic, « Le Big Brother chinois s’installe dans les rues et les foyers africains », Le Monde, (consulté le ).
  71. Simon Leplâtre, « Comment la Chine exporte ses outils de surveillance », sur LeMonde.fr, (consulté le ).
  72. Corentin Cohen,Joan Tilouine, « L’Afrique, laboratoire de cybersurveillance et de manipulation de l’opinion », sur LeTemps.ch, (consulté le ).
  73. Brice Pedroletti, Joan Tilouine, « Le Burkina Faso à l’heure chinoise », sur LeMonde.fr, (consulté le ).
  74. Kai Strittmatter, Dictature 2.0: Quand la Chine surveille son peuple (et demain le monde), Tallandier, (ISBN 979-10-210-4319-0, lire en ligne), p. 214-219.
  75. « Est-il possible d’échapper à la vidéosurveillance en Chine ? », Le Monde, (consulté le ).
  76. « En Chine, des caméras devinent qui sont les passants dans la rue », Le Monde Video, Dailymotion, (consulté le ).
  77. a et b Romain Besnainou, « Qui a peur de Huawei ? », sur france.tv, .
  78. « Les douaniers chinois installent des logiciels espions sur les téléphones de touristes entrant au Xinjiang », Le Monde, (consulté le ).
  79. « Chine, l’empire du contrôle », Le Monde, (consulté le ).
  80. Nicolas Rauline, « San Francisco bannit la reconnaissance faciale », Les Echos, (consulté le ).
  81. « Reconnaissance faciale : 55 chercheurs demandent à Amazon de ne plus vendre son logiciel à la police », Le Monde, (consulté le ).
  82. « Reconnaissance faciale : une start-up analyse les photos des réseaux sociaux pour la police américaine », Le Monde, (consulté le ).
  83. a et b « Données personnelles : Clearview AI visé par une double enquête », Le Monde, (consulté le ).
  84. « Amazon interdit à la police américaine d’utiliser son logiciel de reconnaissance faciale pendant un an », Le Monde, AFP, AP, (consulté le ).
  85. « Amazon impose à la police plus de transparence sur l’utilisation des images des caméras de vidéosurveillance des particuliers », sur Le Monde.fr avec AFP, (consulté le ).
  86. Alice Vitard, « IBM se retire du marché de la reconnaissance faciale », Usine Digitale, (consulté le ).
  87. Le Monde, AP, AFP, « Amazon et Microsoft refusent la reconnaissance faciale à la police », Le Monde, (consulté le ).
  88. « Des images de vidéosurveillance à la frontière américaine piratées », Le Monde, AP, (consulté le ).
  89. Maxime Pernet, « L’entreprise américaine Clearview renonce à vendre ses outils de reconnaissance faciale aux entreprises », sur Le Monde, (consulté le ).
  90. Théodore Therschlucen, « Valencienne, Demain les caméras de vidéosurveillance seront intelligentes et… chinoises », La Voix du Nord, .
  91. a et b « Safe city à Marseille premier recours contre la vidéosurveillance automatisée de l'espace public ? », sur ldh-france.org, .
  92. « Amnesty International dénonce l’exportation vers la Chine de technologies européennes de surveillance », Le Monde, (consulté le ).
  93. Julien Nocetti, « Point de vue : Europe le nécessaire débat sur la reconnaissance faciale », Ouest France, .
  94. « Le gouvernement envisage une expérimentation de la reconnaissance faciale dans des lieux publics », sur francetvinfo.fr, .
  95. Macéo Croppo, « Reconnaissance faciale en France : quelle place dans la politique de sécurité intérieure ? », sur portail-ie.fr, .
  96. « Reconnaissance faciale : pour un débat à la hauteur des enjeux », sur cnil.fr, .
  97. Emma Confrere, « Reconnaissance faciale : la société Clearview AI accusée de « surveillance de masse illégale » », Le Figaro avec AFP, (consulté le ).
  98. Samuel Kahn, « Reconnaissance faciale : Clearview fait scandale avec ses 3 milliards de visages « aspirés » », sur Le Figaro, (consulté le ).
  99. Florian Reynaud, « La CNIL met en demeure l’entreprise de reconnaissance faciale Clearview », sur Le Monde, (consulté le ).
  100. Jean-Marc Manach, « RGPD : Clearview AI condamné à 20 millions d'euros d'amende, pour la 3e fois », sur Next INpact, (consulté le ).
  101. « Reconnaissance faciale : la CNIL condamne Clearview AI à une amende de 20 millions d’euros », sur Le Monde avec Agence France-Presse, (consulté le ).
  102. « Vidéosurveillance, reconnaissance faciale et fichage : trois plaintes collectives déposées par la Quadrature du Net contre le ministère de l’intérieur », sur Le Monde avec Agence France-Presse, (consulté le ).
  103. Florian Reynaud, Pauline Croquet, « Reconnaissance biométrique dans l’espace public : ce que contient la loi en débat au Sénat », sur Le Monde, (consulté le ).
  104. Jean-Pierre Langellier, « La Grande-Bretagne se transforme en une "société sous surveillance" », Le Monde, (consulté le ).
  105. « Big Brother; surveille les automobilistes britanniques », sur Le Monde, (consulté le ).
  106. Lucas Mediavilla, « La polémique enfle au Royaume-Uni sur l'utilisation de la reconnaissance faciale », Les Echos, (consulté le ).
  107. Maxime Pernet, « Au Royaume-Uni, Clearview AI condamné à une amende de 8,85 millions d'euros », sur Le Monde, (consulté le ).
  108. « Au Royaume-Uni, la justice inflige un revers à la reconnaissance faciale », Le Monde, AFP, (consulté le ).
  109. Benoît Vitkine, « En Russie, l’étoile pâlie du pouvoir face au coronavirus », Le Monde, (consulté le ).
  110. « Reconnaissance faciale à Moscou, 100.000 caméras surveillent les confinés », sur BFMTV, AFP, (consulté le ).
  111. a et b Thibault Nieuwe Weme, « Mobilisation contre la reconnaissance faciale: Lausanne interpellée », Le temps,‎ (lire en ligne, consulté le ).
  112. (en-US) Khari Johnson, « Iran Says Face Recognition Will ID Women Breaking Hijab Laws », Wired,‎ (ISSN 1059-1028, lire en ligne, consulté le )
  113. « L'Iran affirme que la reconnaissance faciale permettra d'identifier les femmes qui enfreignent les lois sur le hijab, un outil appréciable pour les régimes autoritaires du monde », Developpez.com,‎ (lire en ligne, consulté le )
  114. Laure Coromines, « L'Iran utiliserait la reconnaissance faciale pour identifier les femmes sans Hijab », sur L'ADN, (consulté le ).

Sur les autres projets Wikimedia :

Bibliographie

[modifier | modifier le code]
  • (en) Richard Szeliski, Computer Vision : Algorithms and Applications, Springer, (lire en ligne) Document utilisé pour la rédaction de l’article
  • (en) S. Z. Li et A. K. Jain, Handbook of Face Recogntion, Springer,
  • (en) Shaxun Chen, Amit Pande et Prasant Mohapatra, « Sensor-Assisted Facial Recognition: An Enhanced Biometric Authentication System for Smartphones », MobiSys, vol. Proceedings of the 12th,‎ (lire en ligne)
  • (en) X. Tan, S. Chen, ZH. Zhou et F. Zhang, « Face recognition from a single image per person: A survey », Science Direct, vol. 39,‎ (DOI doi:10.1016/j.patcog.2006.03.013, lire en ligne [PDF])
  • (en) R. Jenkins et A. M. Burton, « 100% Accuracy in Automatic Face Recognition », Science Mag, vol. 319,‎ (DOI 10.1126/science.1149656, lire en ligne [PDF])
  • (en) Andrea F. Abate, Michele Nappi, Daniel Riccio et Gabriele Sabatino, « 2D and 3D face recognition: A survey », Science Direct, vol. 28,‎ (DOI 10.1016/j.patrec.2006.12.018, lire en ligne)
  • (en) A. Pentland, « View-Based and Modular Eigenspaces for Face Recognition », IEEE, vol. Conference on Computer Vision & Pattern recognition,‎ (ISBN 0-8186-5825-8, ISSN 1063-6919, DOI 10.1109/CVPR.1994.323814, lire en ligne [PDF])
  • (en) W. Zhao, R. Chellappa, P.J. Phillips et A. Rosenfeld, « Face recognition: A literature survey », ACM Computing Surveys, vol. 35,‎ , p. 399-458 (ISSN 0360-0300, DOI 10.1145/954339.954342, lire en ligne [PDF])
  • (en) Jiangwei Li, Yunhong Wang, Tieniu Tan et Anil K. Jain, « Live face detection based on the analysis of Fourier spectra », Biometric Technology for Human Identification,‎ (DOI 10.1117/12.541955, lire en ligne [PDF])
  • (en) K.I. Chang et W. Bowyer, « Multiple Nose Region Matching for 3D Face Recognition under Varying Facial Expression », IEEE, vol. Transactions on pattern analysis and machine intelligence 28,‎ , p. 1695 - 1700 (ISSN 0162-8828, DOI 10.1109/TPAMI.2006.210, lire en ligne [PDF])
  • (en) Volker Blanz et Thomas Vetter, « Face Recognition Based on Fitting a 3D Morphable Model », IEEE, vol. Transactions on pattern analysis and machine intelligence 25,‎ , p. 1063 - 1074 (ISSN 0162-8828, DOI 10.1109/TPAMI.2003.1227983, lire en ligne [PDF])
  • (en) Chaua C. Queirolo, Luciano Silva, Olga R.P. Bellon et Mauricio Pamplona Segundo, « 3D Face Recognition Using Simulated Annealing and he Surface Interpenetration Measure », IEEE, vol. Transactions on pattern analysis and machine intelligence 32,‎ , p. 206-219 (ISSN 0162-8828, DOI 10.1109/TPAMI.2009.14, lire en ligne)
  • (en) Gang Pan, Lin Sun, Zhaohui Wu et Shihong Lao, « Eyeblink-based Anti-Spoofing in Face Recognition from a Generic ebcamera », IEEE, vol. Computer Vision 11th,‎ , p. 1-8 (ISBN 978-1-4244-1630-1, ISSN 1550-5499, DOI 10.1109/ICCV.2007.4409068, lire en ligne)
  • (en) M. Lalonde, D. Byrns, L. Gagnon, N. Teasdale et D. Laurensdeau, « Real-time eye blink detection with GPU-based SIFT tracking », IEEE, vol. Computer and Robot Vision 4th Canadian Conference,‎ , p. 481-487 (ISBN 0-7695-2786-8, DOI 10.1109/CRV.2007.54, lire en ligne)
  • (en) A.K. Singh, P. Joshi et G.C. Nandi, « Face recognition with liveness detection using eye and mouth movement », IEEE, vol. Signal Propagation and Computer Technology (ICSPCT),‎ , p. 592-597 (ISBN 978-1-4799-3139-2, DOI 10.1109/ICSPCT.2014.6884911, lire en ligne)
  • (en) Jiamin Bai, Tian-Tsong Ng, Xinting Gao et Yun-Qing Shi, « Is physics-based liveness detection truly possible with a single image? », IEEE, vol. Circuit and Systems (ISCAS),‎ , p. 3425-3428 (ISBN 978-1-4244-5308-5, DOI 10.1109/ISCAS.2010.5537866, lire en ligne)
  • (en) Robert W. Frischholz et Ulrich Dieckmann, « A Multimodal Biometric Identification System », BioID, vol. 33,‎ (lire en ligne)
  • (en) Z. Hammal,, N. Eveno et A. Caplier, « Parametric models for facial features segmentation », ScienceDirect, vol. Signal Processing Volume 86,‎ (DOI doi:10.1016/j.sigpro.2005.06.006, lire en ligne)
  • (en) N. Erdogmus et S. Marcel, « Spoofing Face Recognition with 3D Masks », IEEE, vol. Information Forensics and Security, IEEE Transactions on (Volume:9, Issue: 7) Biometrics Compendium,‎ (ISSN 1556-6013, DOI 10.1109/TIFS.2014.2322255, lire en ligne)

Articles connexes

[modifier | modifier le code]

Émission de radio

[modifier | modifier le code]

Documentaire

[modifier | modifier le code]

Lien externe

[modifier | modifier le code]