L’anatomie d’un faux titre

0
1880

Alors que des affrontements entre les manifestants de Black Lives Matter et la police ont éclaté à travers le pays plus tôt ce mois-ci, certains Oregonians, pour la plupart des personnes âgées, ont vu une annonce sur Facebook faisant la une des journaux sur la façon dont un politicien républicain «veut que la loi martiale contrôle les supersoldats Obama-Soros Antifa».

Inutile de dire qu’il n’y avait pas d’armée de «supersoldats» de gauche traversant l’Oregon, et que l’ancien président Barack Obama et le milliardaire George Soros n’étaient pas connus pour financer quoi que ce soit lié à l’antifa. Et le politicien en question n’a pas vraiment dit qu’il y avait des «supersoldats». Le titre, originaire du blog progressiste souvent sarcastique Wonkette, n’a jamais été censé être considéré comme une information directe.

Le tout était une mésaventure née de l’ère de l’actualité moderne, dans laquelle les gros titres que vous voyez ne sont pas décidés par un éditeur de première page dur mais plutôt par des couches d’algorithmes conçues pour choisir les nouvelles et qui devrait les afficher. Ce système peut fonctionner correctement, mais dans ce cas, il a alimenté un maelström de désinformation qui inspirait déjà certains occidentaux à saisir leurs armes et à protéger leurs villes contre la menace largement inexistante des fauteurs de troubles antifa en dehors de la ville.

Ce n’était qu’un titre qui alimentait un sentiment de paranoïa renforcé par des rumeurs provenant de nombreuses sources. Mais déconstruire exactement comment cela s’est produit fournit une fenêtre sur la facilité avec laquelle une théorie du complot marginal se glisse accidentellement dans l’écosystème des nouvelles en ligne traditionnelles.

Le problème a commencé lorsque SmartNews a repris l’histoire moqueuse de Wonkette. SmartNews est une application d’agrégation de nouvelles qui attire les utilisateurs en plaçant près d’un million de dollars de publicités sur Facebook, selon les données publiées par Facebook. Selon l’énoncé de mission de la startup, ses «algorithmes évaluent des millions d’articles, de signaux sociaux et d’interactions humaines pour livrer les 0,01% des histoires les plus importantes en ce moment».

La société, qui dit que «les informations doivent être impartiales, tendances et dignes de confiance», choisit généralement les gros titres des nouvelles locales pour ses publicités Facebook, peut-être de votre station de télévision locale. Les utilisateurs qui installent l’application obtiennent des titres sur leur région d’origine et les sujets d’intérêt, organisés par les algorithmes de SmartNews. Cette fois, cependant, le titre provenait de Wonkette, dans une histoire se moquant de Jo Rae Perkins, candidate républicaine du Sénat américain de l’Oregon, qui a suscité la controverse pour sa promotion des théories du complot.

Début juin, alors que les manifestations contre la violence policière se multipliaient dans les villes rurales du pays, Perkins a enregistré une vidéo Facebook Live appelant à une «loi martiale sévère» pour «écraser» les «voyous antifa» censés visiter diverses villes de l’Oregon. Elle a également lié des manifestants, sans fondement, à des cibles de droite communes: «Beaucoup, beaucoup de gens croient qu’ils sont payés par George Soros», a-t-elle dit, et «c’est l’armée qu’Obama a constituée il y a quelques années».

Perkins n’a jamais dit «supersoldier» – le terme est apparemment une blague Twitterverse, dans ce cas ajouté à son titre par Wonkette pour se moquer de la peur apparente de Perkins envers les manifestants. Pour quelqu’un qui connaît son style sardonique impassible, voir le titre hyperbolique sur le site Web de Wonkette ne lèverait pas un sourcil – les lecteurs réguliers sauraient que Wonkette se moquait de Perkins. Mais c’est 2020, et même les gros titres de blogs insulaires peuvent voyager en dehors des flux RSS de leurs lecteurs et se frayer un chemin via les réseaux sociaux dans des zones où Wonkette n’est pas largement connue. SmartNews, lorsqu’il a automatiquement supprimé le titre de Wonkette de son association avec Wonkette et l’a présenté de manière neutre dans l’annonce, a incarné ce phénomène.

Les algorithmes de SmartNews ont choisi ce titre pour que les annonces apparaissent sur les flux Facebook des personnes dans presque tous les comtés de l’Oregon, avec une bannière comme « Charles County news » correspondant au nom du comté où l’annonce a été diffusée. C’est une stratégie que l’entreprise utilise des milliers de fois par jour.

Le vice-président de SmartNews, Rich Jaroslovsky, a déclaré que, dans ce cas, ses algorithmes n’avaient rien fait de mal en choisissant le titre ironique à montrer aux lecteurs existants. Le problème, dit-il, était que le titre avait été montré aux mauvaises personnes.

SmartNews, a-t-il dit, concentre «énormément de temps, d’efforts et de talent» sur ses algorithmes pour recommander des articles aux utilisateurs de l’application SmartNews. Ces algorithmes auraient orienté l’histoire d’Antifa vers «des personnes qui ont vraisemblablement un intérêt démontré pour le genre de choses dans lesquelles Wonkette se spécialise». Pour ces lecteurs et dans ce contexte, a-t-il dit, l’histoire n’était pas problématique.

« Les problèmes sont survenus lorsqu’elle a été sortie de son contexte et placée dans un autre » pour la publicité Facebook qui n’est visée par aucun critère autre que la géographie. « De toute évidence, cela n’aurait pas dû se produire, et nous prenons un certain nombre de mesures pour nous assurer de résoudre les problèmes que vous avez signalés », a déclaré Jaroslovsky.

Jaroslovsky a déclaré que les histoires de Wonkette ne seraient pas utilisées dans les publicités à l’avenir.

SmartNews cible ses annonces sur des personnes se trouvant dans des zones géographiques particulières – dans ce cas, 32 des 36 comtés de l’Oregon.

Mais Facebook avait d’autres idées: ses algorithmes ont choisi de diffuser la publicité des «supersoldats antifa» à une majorité écrasante de personnes de plus de 55 ans, selon les données publiées par Facebook sur les publicités qu’il considère comme politiques. Sans aucun doute, beaucoup de ces téléspectateurs ont ignoré la publicité, ou n’ont pas été dupes, mais la démographie choisie par Facebook est une démographie qui, selon une récente étude de l’Université de New York, a tendance à partager plus fréquemment la désinformation sur les médias sociaux.

Ce choix par les algorithmes de Facebook est puissant: un article universitaire a montré que Facebook évalue le contenu des publicités et les oriente parfois de manière disproportionnée vers des utilisateurs ayant un sexe, une race ou une vision politique particulière. (Le document n’a pas étudié l’âge.)

Facebook ne permet pas non plus de savoir exactement combien de personnes ont vu l’annonce des supersoldats de SmartNews. Le portail de transparence de la société indique que l’annonce a été diffusée entre 197 et 75 000 fois, sur environ 75 variantes (basées sur Android et iPhone et le nombre de pays). Facebook a refusé de fournir des données plus spécifiques.

Facebook ne considère pas que les annonces ont enfreint les règles de l’entreprise. Les publicités sont examinées « principalement » par des mécanismes automatisés, a déclaré le porte-parole de Facebook Devon Kearns au Markup, il est donc peu probable qu’un être humain sur Facebook ait vu les publicités avant de les diffuser. Cependant, « les annonces diffusées avec des titres satiriques sortis de leur contexte sont éligibles » pour être vérifiées, a déclaré Kearns, et les annonces jugées fausses sont supprimées. (Habituellement, la satire et l’opinion dans les publicités sont exemptées d’être marquées comme «désinformation» en vertu de la politique de vérification des faits de Facebook, sauf si elles sont présentées hors contexte.)

L’éditeur de Wonkette, Rebecca Schoenkopf, a déclaré à The Markup qu’elle n’était pas au courant que SmartNews faisait la promotion du contenu de son site avec des publicités Facebook, mais n’était pas nécessairement contre. En théorie, au moins, cela pourrait avoir pour effet d’attirer plus de lecteurs sur son site.

Ironiquement, dit-elle, Wonkette a une présence limitée sur Facebook. Au cours des dernières années, la portée des messages de Wonkette sur la plate-forme avait pratiquement diminué.

Suivre la chaîne d’informations de la vidéo Facebook de Perkins jusqu’à l’annonce SmartNews permet de voir facilement comment une série d’acteurs a pris le même contenu original – une vidéo de Perkins épousant les théories du complot – et l’a amplifiée en fonction de ses propres motivations . Chacun de ces liens a créé un potentiel de désinformation, où le contexte nécessaire à la compréhension pourrait être supprimé.

Lindsay Schubiner, directrice de programme au Portland States Ore., Basée au Western States Center, qui œuvre pour lutter contre l’extrémisme d’extrême droite dans le nord-ouest du Pacifique, a déclaré au Markup que, bien que les médias sociaux aient eu un effet démocratisant sur l’information, cela a également été un format idéal pour diffuser la désinformation.

« La publicité SmartNews – par inadvertance ou non – s’est jointe à un chœur de messages faux, trompeurs et racistes de nationalistes blancs en réponse aux protestations de Black Lives Matter », a écrit Schubiner dans un e-mail. «Beaucoup de ces postes ont été échangés contre l’antisémitisme, qui a longtemps été une réponse incontournable pour les nationalistes blancs cherchant à expliquer leurs pertes politiques.»

Dans ce cas, l’annonce, a-t-elle dit, pourrait promulguer le trope commun de droite que Soros, qui est juif, finance des manifestations de masse pour des causes de gauche.

« Ces théories du complot sectaire ont contribué à alimenter une augmentation des activités d’extrême droite et de l’organisation », a-t-elle poursuivi. « Il est certainement possible que les publicités aient contribué à l’organisation d’extrême droite dans l’Oregon en réponse à de fausses rumeurs concernant des rassemblements antifascistes dans de petites villes. »

Ces théories du complot ont eu des conséquences réelles. Des résidents armés d’armes à feu dans l’État de Washington voisin ont harcelé une famille multiraciale qui campait dans un autobus scolaire converti, les piégeant avec des arbres abattus, les croyant apparemment à tort antifa. La famille n’a pu s’échapper qu’avec l’aide de quelques lycéens locaux armés de tronçonneuses pour se frayer un chemin vers la liberté.

Cet article a été initialement publié sur The Markup par Jeremy B. Merrill et Aaron Sankinand et a été republié sous la licence Creative Commons Attribution-NonCommercial-NoDerivatives.

Publié à l'origine sur themarkup.org

Pssst, hé vous!

Voulez-vous recevoir la newsletter technique quotidienne la plus sassée chaque jour, dans votre boîte de réception, GRATUITEMENT? Bien sûr que vous le faites: inscrivez-vous à Big Spam ici.