« Je veux retrouver mon visage. Non à une société de sécurité ».

« Quand on est observé, on n’agit plus naturellement et on est incité à l’autocensure. Lorsque nous sommes classés, nous sommes jugés et discriminés ». La thèse du sociologue David Lyon (« L’œil électronique. Vie privée et philosophie de la surveillance », Feltrinelli, 1997) est devenu le slogan d’une campagne européenne dénonçant la surveillance biométrique de masse. Après les premières expériences dans les parcs et les places pour contrer la perception d’insécurité des citoyens, les villes et les nations multiplient l’installation de dispositifs de surveillance partout, en appliquant l’intelligence artificielle et l’Internet des choses, avec pour effet, selon les militants, de produire un faux sentiment de sécurité et de créer une société surveillée. Ainsi, afin de « protéger la dignité des personnes dans l’espace public », certains groupes de défense des droits de l’homme ont annoncé hier encore le lancement de « Reclaim Your Face : Ban Biometric Mass Surveillance », une campagne visant à dénoncer les distorsions connues et potentielles de l’utilisation des systèmes de contrôle à distance hyper-technologiques.

Ce sont les mêmes qui, ces derniers mois, ont réussi à mobiliser leurs communautés pour bloquer l’utilisation de la technologie de reconnaissance faciale dans les écoles françaises, empêcher la surveillance biométrique dans la ville de Côme et activer le Garant de la vie privée contre son utilisation par la police grecque.
Les mêmes personnes qui – comme l’ont fait les Surveillance Camera Players à New York dans les années 1990 – ont cartographié les caméras de reconnaissance faciale de la ville de Belgrade.

Microsoft retire des fonds au logiciel israélien de reconnaissance faciale : « Utilisé pour espionner la Cisjordanie ».

31 mars 2020

Aujourd’hui, ces associations, dont le Centre Hermès italien, Access Now et European Digital Rights, demandent à toutes les autorités locales et nationales européennes de révéler les risques inhérents à ces technologies et de rejeter l’utilisation de la surveillance biométrique dans les espaces publics que les communautés habitent. En peu de temps, ARTICLE 19, le Chaos Computer Club (Allemagne), la Fondation Panoptykon (Pologne) et la Quadrature du Net française ont été ajoutés à la liste de Privacy International.

Le point de départ est simple : « Nous n’accepterions jamais qu’une personne nous suive en contrôlant et en évaluant constamment qui nous sommes, ce que nous faisons, quand et où nous nous déplaçons. La reconnaissance faciale, associée à d’autres technologies biométriques utilisées dans les espaces publics, agit ainsi, transformant chacun de nous en suspect potentiel ».

Le thème est brûlant. Les caméras et les dispositifs biométriques devraient avoir un effet dissuasif sur les criminels et faciliter le travail de la police. En fait, de nombreuses études montrent que la plupart des crimes sont commis par des personnes qui sont mal représentées ou par des criminels qui sont capables de faire disparaître leurs traces. De plus, il n’y a pas assez de recherches indépendantes pour prouver que les crimes dans les zones gardées par des objets intelligents sont en baisse, au contraire, il y a plus de rapports d’abus de caméras utilisées pour espionner les femmes dans la salle de bain comme cela s’est produit en Corée.

D’autres études montrent que ces technologies amplifient la discrimination et sont utilisées pour poursuivre les personnes coupables d’avoir exercé leurs droits. Il s’agit avant tout d’un problème technologique. À la base des nouvelles technologies de reconnaissance faciale se trouve la perception machine, le secteur de l’intelligence artificielle (IA) sur lequel l’avènement de l’apprentissage profond a eu le plus grand impact. Le faible coût de l’informatique, la disponibilité de grandes quantités de données et le perfectionnement des réseaux d’algorithmes neuronaux ont permis à l’IA d’effectuer des tâches de classification visuelle encore mieux que les êtres humains. Mais ils se trompent souvent.

Reconnaissance faciale et vie privée, Google : « Les développements de la technologie à évaluer, des règles sont nécessaires ».

20 janvier 2020

Une chercheuse du MIT, Joy Buolamwini, a démontré comment les photos de femmes noires, lorsqu’elles sont scannées par la technologie de reconnaissance faciale, sont confondues avec des hommes ; L’Association américaine des libertés civiles a découvert que le logiciel Rekognition d’Amazon identifiait les membres du Congrès américain comme des criminels condamnés et Arvind Krishna d’IBM a informé le Congrès américain que sa société « ne fournira plus la technologie de reconnaissance faciale aux services de police pour la surveillance de masse et le profilage racial », par crainte qu’elle « puisse être utilisée par la police pour violer les droits de l’homme et les libertés fondamentales » et a souhaité un large débat public sur la question. Une invitation recueillie par les démocrates américains qui ont présenté des lois ad hoc pour l’empêcher. Une montée des boucliers qui est à l’origine de la décision de cinq grandes villes américaines d’interdire l’utilisation de la reconnaissance faciale.

En Europe, cependant, la Commission reste incertaine quant à l’application de l’interdiction de la reconnaissance faciale et continue à financer des projets de surveillance biométrique dans les ports et les aéroports. Et tout cela sans tenir compte des risques liés aux « grandes bases de données centralisées, techniquement difficiles à gérer, vulnérables aux attaques, accompagnées d’une externalisation peu fiable, telle que pour détourner l’attention de la nécessité de collectes et d’enquêtes ciblées », comme l’a déclaré le Garant de la vie privée Stefano Rodotà dans son rapport de 2004. Problème très actuel.

C’est pourquoi les associations demandent plus de transparence sur leur utilisation et invitent la société civile à révéler et à rejeter l’utilisation de la surveillance biométrique « qui pourrait avoir un impact sur nos droits et libertés dans nos espaces publics ». S’adressant à l’Autorité italienne pour la protection de la vie privée, les militants italiens demandent de surveiller l’utilisation des systèmes de reconnaissance biométrique par les municipalités italiennes et d’évaluer l’impact des systèmes que les villes de Turin et d’Udine ont l’intention d’installer, et à toutes les villes métropolitaines de suspendre tout projet de reconnaissance faciale ou biométrique lancé et d’interdire l’introduction de ces technologies dans le contexte urbain public.

Avec plus de détermination, ils demandent au ministère de l’intérieur de publier toutes les évaluations des algorithmes utilisés, les chiffres sur l’utilisation du système, et toutes les données relatives au type de visages dans la base de données utilisée par le SARI et de suspendre le système SARI Real-Time de reconnaissance automatique des visages qui utilise les données des millions de caméras réparties dans les villes. Et ils ajoutent : « Depuis deux ans maintenant, l’enquête du Garant de la vie privée est toujours ouverte pour évaluer l’utilisation du système SARI dans sa version en temps réel à utiliser lors d’événements de rue et dans les espaces publics ».

Si aucune mesure n’est prise maintenant, l’étape suivante est celle que craignent deux chercheurs, Daniel Leufer et Fieke Jansen, qui ont dénoncé l’existence d’iBorderCtrl, un projet financé par Horizon 2020, qui se base sur la mesure des micro-expressions faciales pour détecter les faux, les mensonges et les incertitudes de chaque individu qui veut entrer en Europe.

Sujets

Hot news

A ne pas manquer