L’enquête indique que “Instagram ne freine pas la désinformation sur le Covid et les vaccins”. La réponse : “Vieille étude”.

Un rapport de quarante pages accuse Instagram : ses algorithmes favorisent la désinformation en ce qui concerne la pandémie de Sars-CoV-2 et le contenu des vaccins. Une avalanche de messages potentiellement adressés à des dizaines de millions d’utilisateurs. Ce document est signé par le Center for Countering Digital Hate, une organisation à but non lucratif ayant des bureaux à Londres et à Washington D.C., qui a ouvert une série de comptes “d’investigation” pour mieux comprendre le mécanisme de ce que l’application vidéo-photographique contrôlée par Facebook propose aux utilisateurs, en particulier à ceux qui viennent de s’inscrire, dans deux sections spécifiques : la section Explore, celle qui permet de découvrir ce qui bouillonne sur la plateforme, et les suggestions de posts sur le mur introduites il y a quelques mois.

Le résultat ? Ces outils de l’application dirigée par Adam Mosseri, bras droit de Mark Zuckerberg, encouragent les utilisateurs à visualiser la désinformation et les projettent dans une sorte de spirale sans fin. En ce sens que ceux qui font le malheureux faux pas d’interagir avec certains contenus, finissent par être relancés et bombardés avec d’autres contenus de même teneur, si possible encore pire. Si, par exemple, un utilisateur suit les comptes des anti-vaccinationnistes, il se verra également proposer du matériel sur la conspiration QAnon et les messages antisémites. Si, en revanche, il commence par la conspiration la plus farfelue, il finit dans les griffes de photos et de vidéos sans cire ou de désinformation électorale. Bref, un puits sans fond, et surtout, un puits sans fond et sans issue.

Les chercheurs ont étudié les suggestions du social, utilisé chaque mois par plus d’un milliard d’utilisateurs, en utilisant 15 profils différents et en suivant différents groupes de comptes allant de ceux des autorités sanitaires à ceux qui sont engagés contre les vaccins et aux négationnistes de la pandémie, organisant pour chaque profil un mélange différent de “suivi”. Ils se sont reliés à ces comptes quotidiennement, enregistrant toutes les suggestions “poussées” et reçues par l’algorithme (qu’ils ont renommé, dans la recherche disponible ici, “malgorithmes”), leur teneur et leur contenu. Enquêter surtout dans la section “Explore” et placer au hasard aime bien déclencher l’opération de post suggéré, qui autrement, dans les profils tout neufs, n’intervient que lorsque vous interagissez avec les photos, vidéos, bobines et autres contenus pendant un certain temps. Tout cela entre le 14 septembre et le 16 novembre de l’année dernière, et en sauvegardant des captures d’écran des suggestions.

L’étude explique que pendant cette période, Instagram a recommandé 104 postes contenant des informations erronées aux 15 profils. Plus de la moitié d’entre elles concernaient manifestement le Covid-19, un cinquième les vaccins et un dixième l’élection présidentielle américaine alors imminente. Les utilisateurs du CCDH ont également reçu des suggestions concernant des posts favorables à la conspiration QAnon et généralement des photos et vidéos imprégnées d’antisémitisme. La seule voie sûre à partir de laquelle de telles recommandations n’ont pas été générées était les comptes qui suivaient les profils officiels des autorités sanitaires internationales reconnues.

Les accusations de l’association dirigée par Imran Ahmed, qui appelle même à la suspension de l’algorithme mais ouvre une question essentielle sur la transparence de ces outils informatiques, sont sévères : “Malgorithm, le dernier rapport du CCDH, montre comment l’algorithme d’Instagram promeut activement la désinformation et les contenus extrémistes auprès des utilisateurs – lit-on dans l’enquête – ceux-ci vendent encouragés à regarder ce genre de matériel et, une fois accrochés, on leur fournit des contenus qui poussent d’autres points de vue de cette vision du monde radicalisée […] C’est une tactique délibérée. Les entreprises de médias sociaux tentent constamment de maximiser l’engagement des utilisateurs. En termes simples, plus les utilisateurs passent de temps sur Instagram, plus les revenus augmentent. C’est pourquoi, en août dernier, afin d’accroître l’engagement, Instagram a ajouté des contenus non sollicités par les utilisateurs au calendrier. Lorsqu’un utilisateur n’a plus accès au contenu le plus récent des comptes qu’il suit, les algorithmes d’Instagram présentent le nouveau contenu comme une “extension de votre flux”. Les algorithmes d’apprentissage automatique identifient les intérêts potentiels des utilisateurs en fonction des données et des habitudes, puis trouvent des contenus à fort engagement du même type et les injectent dans les flux des utilisateurs. Des recherches antérieures montrent que la désinformation est partagée et obtient plus d’engagement que la vérité sur les médias sociaux. Pire encore, un engagement élevé augmente la probabilité que même les observateurs neutres interagissent avec le contenu. Pour Instagram et ses algorithmes, un clic est un gain, quel que soit le contenu”. Et le travail de déménagement, que la plate-forme effectue également, est qualifié d'”insuffisant”.

Le CCDH a également publié une lettre ouverte à Zuckerberg, le suppliant de désactiver et de réparer l’algorithme. Comment ? Par exemple, en excluant du système de suggestions les postes traitant des covidés et des vaccins, en tenant une liste noire de comptes bien connus pour diffuser la désinformation, en les limitant au maximum, et en plafonnant également le nombre de postes suggérés adressés à chaque utilisateur. Les méthodes d’intervention pourraient en fait être nombreuses. L’organisation explique également qu’Instagram pourrait mieux protéger ses utilisateurs de la désinformation en refusant la coche bleue de vérification, celle qui indique les utilisateurs certifiés, aux comptes réellement connus pour diffuser des nouvelles ou des théories sans fondement (parmi ceux qui figurent dans le rapport figure également le troisième fils de Bob Kennedy, Robert F. Kennedy Jr, un leader négationniste bien connu) en introduisant des alertes sur le contenu sélectionné par l’algorithme et en “vaccinant” les utilisateurs avec une nouvelle stratégie de contenu, par exemple en montrant les bons messages à ceux qui sont trop exposés aux messages extrémistes et en donnant de plus en plus de place aux annonces des organisations officielles pour qu’elles soient placées à côté de celles qui ne sont pas fondées.

Un porte-parole de Facebook a simplement minimisé l’importance de cette étude en expliquant qu’elle datait de cinq mois et qu’elle était basée sur un “échantillon extrêmement restreint” de seulement 104 messages.

Maxime Le Moine
Maxime Le Moine
Grand amateur et passionné de technologie, j'ai un faible pour les machines en tout genre. Je vous partage les nouveautés tech pour vous permettre de vous garder à jour dans l'évolution qui ne s'arrête jamais!

Hot news

A ne pas manquer