Passées À venir

Les « bots », puissants outils de propagation de fake News

Le 20 novembre dernier, une équipe de chercheurs américains a publié une étude indiquant que les « bots » jouaient un rôle clé dans « l’amplification de la désinformation » sur les réseaux sociaux. Ces chercheurs mettent en avant des solutions pour réduire ce phénomène. Explications.

Aux États-Unis, un groupe de chercheurs de l’Université de l’Indiana à Bloomington a tenté de mesurer de manière empirique la prolifération des « bots » et leurs effets sur le net. Ces « bots » sont des programmes automatisés qui peuvent envoyer des messages sur les réseaux sociaux.

Les « bots », puissants outils de propagation de fake News


14 millions de tweets décortiqués par les chercheurs

Pour trouver leur matière première, ces chercheurs ont analysé une partie du trafic sur Twitter lors de l’élection présidentielle américaine de 2016, durant laquelle Donald Trump est sorti vainqueur. Ces chercheurs ont décortiqué 14 millions de messages et 400 000 articles relayés sur ce réseau social de microblogging sur la période allant de la fin des primaires à l’investiture du président Trump, c’est-à-dire de mai 2016 au 20 janvier 2017.

Des « bots » ont réussi à propager 31 % des tweets menant à des contenus peu crédibles

Ces universitaires ont constaté que 6 % des comptes Twitter identifiés comme étant des « bots » avaient réussi à propager 31 % des tweets menant à des contenus peu crédibles sur ce réseau social et 34 % des articles venant de sources considérées comme peu fiables par des observateurs indépendants.

Ces comptes automatisés peuvent relayer du contenu et interagir avec d’autres comptes comme s’ils étaient tenus par des humains. Dans un compte-rendu publié en anglais dans Nature Communications, les universitaires indiquent que ces « bots » peuvent adapter la désinformation à leur cible et focaliser leur attention sur ceux qui sont les plus susceptibles d’y croire.

Sur la piste des bots malveillants

Les chercheurs se sont servis d’un outil de leur laboratoire qui trace la propagation de la désinformation sur Twitter et un autre qui piste les « bots » grâce à un système fondé sur l’intelligence artificielle. Ils se sont focalisés sur l’utilisation des « bots malveillants », dans un but de propagande et de manipulation.

Leur compte-rendu n’indique pas lequel des deux candidats a pu être avantagé par ces robots, mais certaines études scientifiques précédentes ont signalé que Donald Trump en avait plus profité que sa rivale Hillary Clinton. Il y a quelques mois, le scandale Cambridge Analitica avait aussi laissé planer de nombreux doutes sur la manière dont les équipes de campagne de Donald Trump avaient pu diffuser des Fake news en se servant de Facebook.



« Le but est d’inciter ces personnes à redistribuer le lien à leurs très nombreux abonnés »

« Nous avons repéré 2 stratégies » efficaces pour ces « bots », détaille Filippo Menczer, un enseignant de l’Université de l’Indiana qui a mené cette étude. « La première est d’amplifier le message très rapidement, dans les toutes premières secondes qui suivent la publication » de la Fake news. « La seconde est de cibler les comptes Twitter de personnes influentes comme les journalistes et les politiques en les mentionnant ou en répondant aux messages qui les mentionnent. Le but est d’inciter ces personnes à redistribuer le lien à leurs très nombreux abonnés ».

« Les gens ont l’air d’avoir davantage confiance dans les messages qui semblent provenir d’un grand nombre de personnes », analyse Giovanni Luca Ciampaglia, qui a aussi participé à cette étude.

Limiter le nombre de bots : une stratégie efficace

D’après ces scientifiques, limiter la quantité de ces robots pourrait être « une stratégie efficace » pour réduire la diffusion de contenus peu fiables sur les réseaux sociaux. Les chercheurs ont mis en œuvre une expérience avec une version simulée de Twitter et ont constaté qu’en enlevant 10 % des faux comptes présumés, cela permettrait de faire diminuer largement le nombre de contenus peu fiables.

Vérifier si l’on a bien affaire à un être humain grâce à des tests

« Les plateformes des réseaux sociaux connaissent nos méthodes, qui sont publiques et donc disponibles pour elles », explique Filippo Menczer. « Mais elles doivent se montrer plus prudentes que nous pour minimiser le risque » de clôturer des comptes véritables.

Autre possibilité : créer des tests de type « CAPTCHA » qui ont pour but de vérifier si l’on a bien affaire à un humain. Twitter a admis au cours de l’année écoulée que des robots étaient très nombreux sur le réseau et avaient permis de diffuser de fausses nouvelles. Twitter a mis en place des règles pour réduire leur pouvoir de nuisance.

La France a adopté un projet de loi pour coopérer avec les plateformes de réseaux sociaux

La question des Fake news est devenue préoccupante au sein des sociétés démocratiques. En septembre 2017, Twitter avait expliqué avoir désactivé de nombreux comptes qui auraient essayé de manipuler l’élection présidentielle américaine de 2016. En mai 2018, Facebook a aussi indiqué avoir désactivé 583 millions de faux comptes lors du premier trimestre 2018.

En France, un projet de loi adopté par l’Assemblée nationale contraindra les GAFA à coopérer avec l’État, dans le but de réduire la propagation de contenus estimés être de la désinformation.