Denis Demontes

La reconnaissance faciale est-elle le nouveau Big Brother?

Il n’y a pas si longtemps, pouvoir identifier de manière automatique les personnes qui transitaient par une rue, les suivre, tracer leurs mouvements et dépenses à travers leurs achats, connaître leurs états d’âme, leurs origines, leur genre, relevait de la science fiction. Cette technologie qui permet tout cela aux autorités, et pas uniquement, est parmi nous : nous rentrons dans l’ère Big Brother. Faut-il se cacher?

Rekognition est un outil de reconnaissance faciale en ligne qui fonctionne avec des vidéos et des photos et permettant aux utilisateurs de comparer les figures qui s’y trouvent à des personnes scannées au préalable dans une base de données.

L’outil donne un résultat exprimé en points de confiance (confidence score), c’est à dire la probabilité que l’identification soit correcte.

De plus, l’outil peut aussi être utilisé pour détecter le type de contenu, suggérer si le sujet en question est un homme ou une femme, déduire l’état d’âme de la personne et détecter s’il y a du texte et le transcrire pour analyse.

Mais tout n'est pas rose dans le monde de l'innovation.

Effectivement les groupes de défense de droits civils considèrent cet outil comme peut-être la technologie la plus dangereuse jamais développée au point que même des actionnaires d’Amazon, le créateur de Rekognition, ont demandé une halte aux ventes de l’outil.

Regardons de plus près cette situation.

Amazon recommande que les agences gouvernementales qui utilisent ce service le fassent seulement lorsque le pourcentage de confiance de 99% ou supérieur est atteint et qu’ils le fassent en toute transparence. Ceci ne semble pas être le cas, du moins aux Etats-Unis où différentes forces de police l’utilisent même contre des portraits robots de suspects et non pas des photos.

Mais la problématique ne s’arrête pas là, les algorithmes d’Amazon sont aussi au centre de la tourmente car ils sont considérés comme partiaux.

Concrètement, une étude du Massachussetts Institute of Technology (MIT) et l’Université de Toronto suggère que l’algorithme ne réagit pas de la même façon selon les genres et de races. Cette étude indique que Rekognition a 0% d’erreur lorsqu’il s’agit de classer des hommes à peau blanche, et de l’ordre de 30% d’erreurs à classer des femmes de couleur.

Pouvons-nous donc nous fier à ces résultats? L’utilisation de cette technologie doit-elle être réglementée et par qui, Amazon ou les Etats ? Le déploiement de la technologie dans les villes est-elle une intrusion dans la vie privée des citoyens?

En conclusion

L’utilisation de cette technologie soulève beaucoup de controverses, typiques lors de l’apparition de nouvelles inventions, il est donc impératif que les différents gouvernements mettent en place une réglementation (comme en Californie) pour assurer la liberté des citoyens et la bonne utilisation de l’outil.

iDNA, forte de son expérience en sécurité, aide ses clients à naviguer dans le monde des nouvelles technologies et leur impact dans la gouvernance, le respect des organismes régulateurs et la conformité en général.

Articles associés

Les IA font évoluer les attaques

7 février 2024
  Jusqu’à présent, les attaques liées à l’ingénierie sociale (Social Engineering) étaient en tête sur la liste des vecteurs de compromission initiale. C’était sans compter sur l’IA (Intelligence Artificielle) qui est en passe de faire exploser les records !   Une accélération des attaques Depuis fin 2022, le nombre de phishing a été multiplié par […]

La méthode FAIR : un guide vers une gestion efficace des risques pour votre entreprise.

13 décembre 2023
  Cette méthode, qui gagne en popularité, offre une perspective unique et pragmatique pour évaluer et gérer les risques de manière plus efficace et précise. Cet article revient sur les principes fondamentaux de la méthode FAIR et son application concrète.     FAIR: Factor Analysis of Information Risk Le standard FAIR est un modèle analytique […]
Partager cet article
Derniers articles

Portrait d’Aurore, Responsable des Ressources Humaines au sein du groupe iDNA

Depuis 8 ans maintenant, Aurore occupe le poste de Responsable des Ressources Humaines au sein du groupe iDNA. C’est avec un grand sourire qu’elle a accepté de répondre à nos questions. Découvrez son parcours, son poste et ses spécificités, mais aussi sa vision et ses valeurs.    Peux-tu te présenter rapidement ? Je m’appelle Aurore, j’ai […]

Les IA font évoluer les attaques

  Jusqu’à présent, les attaques liées à l’ingénierie sociale (Social Engineering) étaient en tête sur la liste des vecteurs de compromission initiale. C’était sans compter sur l’IA (Intelligence Artificielle) qui est en passe de faire exploser les records !   Une accélération des attaques Depuis fin 2022, le nombre de phishing a été multiplié par […]

La méthode FAIR : un guide vers une gestion efficace des risques pour votre entreprise.

  Cette méthode, qui gagne en popularité, offre une perspective unique et pragmatique pour évaluer et gérer les risques de manière plus efficace et précise. Cet article revient sur les principes fondamentaux de la méthode FAIR et son application concrète.     FAIR: Factor Analysis of Information Risk Le standard FAIR est un modèle analytique […]

La nouvelle réglementation DORA : qu’implique-t-elle ?

DORA : Digital Operational Resilience Act Dans un contexte de plus en plus marqué par la transformation numérique, l’interconnexion grandissante des réseaux et la multiplication des cyberattaques, les services financiers doivent redoubler de vigilance. La nouvelle réglementation DORA s’inscrit dans ce constat et a pour finalité de garantir la stabilité financière et la protection des consommateurs […]