Twitter a un problème avec les images : l’algorithme montre plus de blancs que de noirs


Il est bien connu que les algorithmes de réseaux sociaux révèlent périodiquement de profonds préjugés sous-jacents, liés à des préjugés (bias en anglais) contre les minorités, les personnes ayant certaines caractéristiques physiques ou simplement qui préfèrent certains contenus à d’autres. Ce que l’on sait moins, c’est que très peu de pas en avant, dans ce sens, sont faits. Si, en juin dernier, c’est Instagram qui s’est retrouvé sur le banc des accusés – une enquête d’AlgorithmWatch avait révélé que si vous vous déshabillez sur les médias sociaux, vous accumulez plus de cœurs, car l’algorithme vous jette sur plus de tableaux d’affichage et favorise votre photo par rapport aux autres, soutenant ainsi vos activités et votre popularité sur les médias sociaux -, un problème lié au racisme intrinsèque refait surface. Certains utilisateurs de Twitter ont découvert qu’en téléchargeant une image d’un sujet en noir et blanc sur les médias sociaux, l’aperçu que vous obtenez favorise presque toujours le sujet blanc. En bref, c’est le blanc qui finit “à la fenêtre”.

Plusieurs utilisateurs ont d’ailleurs démontré le problème en commençant à poster des images uniques contenant deux sujets : ponctuellement, l’aperçu du tweet mettait en évidence le blanc, en concentrant le recadrage de l’image sur lui, même lorsqu’il était moins pertinent du point de vue de la pertinence publique (même Barack Obama a été retiré). Ce qui est curieux, c’est que le problème est apparu comme dans un jeu de boîtes chinoises : un utilisateur avait en effet signalé sur Twitter un problème similaire lié à Zoom, la plateforme d’appels vidéo qui a explosé lors de lockdown internationaux : elle ne montrait pas le visage d’un collègue noir participant à un vidéocall. Eh bien, très mal : lorsqu’il a publié la photo sur Twitter, il a découvert que même la plateforme de médias sociaux dirigée par Jack Dorsey favorisait son visage – blanc – par rapport à celui de son collègue. La discrimination au carré, en bref. D’ailleurs, l’application officielle semble être pire dans ce sens, car les plateformes parallèles professionnelles pour la gestion de comptes multiples et de contenus comme TweetDeck semblent plus neutres dans ce travail de recadrage.

De nombreux autres utilisateurs ont également tenté de telles expériences et, apparemment, le mécanisme est également déclenché par des illustrations, des dessins animés et même des chiens, favorisant le poil blanc ou clair sur un quadrupède à poil foncé. Le réseau neuronal de Twitter, qui coupe automatiquement les images que nous attachons à nos tweets, avait montré d’autres problèmes depuis son développement initial. Dantley Davis, le responsable de la conception de Twitter, est également intervenu dans la discussion. Il a donné un exemple où ce biais ne s’est pas produit, mais a admis qu’il s’agissait d’une preuve non vérifiée. En bref, un fait aléatoire qui ne fait guère de différence par rapport à la grande quantité de preuves et de résultats apportés pendant la journée par des dizaines d’utilisateurs. L’entreprise est également intervenue officiellement par la bouche de Liz Kelley, de l’équipe de communication, selon laquelle la plateforme avait effectué une série de tests sans trouver aucune preuve de cette discrimination. Cependant, en admettant qu'”il est clair que nous devons procéder à des contrôles supplémentaires. Nous partagerons notre travail afin de pouvoir le suivre et le reproduire”. Il y a également un doute à San Francisco, s’il est vrai que Parag Agrawal, directeur de la technologie, a ajouté que le modèle doit être “amélioré en permanence” et être prêt à apprendre des expériences que les utilisateurs ont continué à poster pendant des heures.

C’est une question très importante. Pour y remédier, nous avons fait une analyse de notre modèle lors de son expédition, mais il doit être amélioré en permanence.

J’adore ce test public, ouvert et rigoureux – et je suis impatient d’en tirer les enseignements. https://t.co/E8Y71qSLXa

– Parag Agrawal (@paraga) 20 septembre 2020
Ces questions ne sont que le fer de lance d’une longue série de préjugés que les algorithmes, appliqués dans des systèmes de toute nature à partir de la reconnaissance faciale de certains logiciels utilisés par les forces de police du monde entier, véhiculent dans leurs applications les plus articulées. En janvier dernier, c’est la représentante de gauche du Parti démocrate américain, Alexandria Ocasio-Cortez, qui a ouvertement dénoncé le racisme de ces systèmes d’apprentissage machine.

En juillet dernier, pour ne citer qu’une des nombreuses études sur le sujet, une enquête de l’American Civil Liberties Union sur Amazon Rekognition, le logiciel de reconnaissance faciale du colosse fondé par Jeff Bezos, a confondu 28 députés élus à la Chambre et au Sénat avec un photosignage pris dans une base de données de la police de 25 000 détenus. Non seulement l’inexactitude : dans 39% des cas, les députés pris pour des criminels étaient des hommes et des femmes noirs, mais ils ne représentent que 20% des 535 membres du Congrès par rapport à la base de données.

C’est dans le vaste domaine de l’investigation, le front le plus chaud, que les implications sont les plus importantes en matière de vie privée et de garanties personnelles (de nombreuses grandes villes des États-Unis ont adopté des lois et des ordonnances empêchant leurs forces de police d’exploiter ces services). Mais même en revenant sur le web et les réseaux sociaux, les précédents ne manquent pas, et comment expliquer les réactions désorientées des responsables de Twitter sont souvent des précédents qui révèlent toutes les difficultés à pénétrer dans la “boîte noire” dans laquelle sont enfermés les calculs infinis effectués par les algorithmes : si en 2015 le système de reconnaissance d’images de Google cataloguait certains noirs comme des “gorilles”, quelques années plus tard un autre système Big G, le Cloud Natural Language API, jugeait négativement certaines déclarations sur la religiosité et la sexualité comme “je suis juif” ou “je suis gay”.

Entre-temps, Facebook, qui a une longue histoire de précédents en ce sens (surtout, cependant, dans l’incapacité de bloquer et de supprimer les contenus xénophobes plus que dans leur promotion au sens strict) et qui a également des répercussions plus larges sur les femmes et les minorités, notamment pour la publicité, a mis en place en juillet dernier une équipe internationale chargée de vérifier si ses algorithmes, y compris ceux d’Instagram, sont en quelque sorte marqués par des préjugés raciaux. Ce n’est pas suffisant, car le point le plus critique est souvent les bases de données de départ sur lesquelles ces algorithmes sont “formés”.

Maxime Le Moine
Maxime Le Moine
Grand amateur et passionné de technologie, j'ai un faible pour les machines en tout genre. Je vous partage les nouveautés tech pour vous permettre de vous garder à jour dans l'évolution qui ne s'arrête jamais!

Hot news

A ne pas manquer