48 pays pratiquent-ils le trolling d'État ?


Ces dernières années, un type de structure spécialisée dans ces manœuvres a émergé : les " fermes à trolls ". Cet entretien a été réalisé le 20 mars 2019, dans le cadre du colloque "Les démocraties à l'épreuve des infox" organisé conjointement par l'INA et la BNF. Jane Lytvynenko est journaliste chez BuzzFeed News, explique-t-il :

Qu'est-ce qu'une "ferme à trolls" ?

Jane Lytvynenko : Lorsque nous parlons de fermes à trolls parrainées par des États, nous parlons en réalité de personnes payées par des pays pour diffuser de la désinformation afin d'influencer le discours public et qui utilisent Internet principalement à des fins de propagande. Ils sont également connus sous le nom de cyber troupes.

Depuis combien de temps ces fermes existent-elles ?

Jane Lytvynenko : D'après ce que nous savons, les premières fermes ont commencé à fonctionner en 2014. Mais au fil du temps, nous en avons vu apparaître de plus en plus dans le monde. Ainsi, par exemple, en 2017, l'Oxford Internet Institute a recensé 28 fermes à trolls parrainées par l'État dans le monde. Cependant, dans un rapport de suivi publié en 2018, nous avons constaté une forte augmentation, de 28 à 48, du nombre de pays qui pratiquent le trolling parrainé par l'État. Cela signifie que ce problème prend de l'ampleur et que le phénomène est très probablement efficace.

Existe-t-il différents types de "fermes à trolls" ?

Jane Lytvynenko : Les pays abordent la propagande en ligne de différentes manières. La Russie est bien sûr l'exemple le plus célèbre car ses méthodes sont les plus étendues. Ils sont vraiment les pionniers dans ce domaine. Mais ce que nous constatons, c'est que certaines des fermes à trolls parrainées par l'État sont dirigées vers l'intérieur. Certaines tentent d'influencer l'opinion et de diffuser de la propagande de manière plus directe, tandis que d'autres essaient d'attiser la colère sur certaines questions, contre certains groupes ethniques ou certains conflits. L'internet peut donc être exploité à l'infini par les fermes à trolls, tout comme nous pouvons nous-mêmes utiliser l'internet de différentes manières.

Pourquoi sommes-nous si intéressés par ces structures ?

Jane Lytvynenko : Il n'y a pas de réponse simple à la question de savoir pourquoi nous en parlons autant, mais je pense que la réponse courte est : parce que ça marche. Par exemple, en 2014, nous avons vu les premiers signes d'activité de Facebook pour influencer l'opinion au Myanmar à l'égard des musulmans rohingyas. En 2015, nous avons vu les Russes tenter d'influencer l'opinion ukrainienne après la révolution. Et en 2016, les choses ont vraiment dégénéré lorsque des fermes de trolls parrainées par des États étrangers se sont exportées en Occident en s'installant dans des démocraties et en essayant d'influencer les résultats d'élections démocratiques. À partir de ce moment-là, après la découverte de ces campagnes, nous avons vraiment réalisé que cela se passait partout dans le monde : pas seulement localement, mais internationalement. Et maintenant, c'est à nous de poser les questions suivantes : pourquoi est-ce efficace ? Comment cela fonctionne-t-il ? Et que pouvons-nous faire pour réduire l'impact de ce type de campagnes ?

Comment expliquer la puissance de ces "fermes à trolls" ?

Jane Lytvynenko : Pensez à la façon dont vous interagissez avec les réseaux sociaux - vous allumez votre téléphone, vous ouvrez un site web et vous accédez à des informations. Sur Instagram, c'est une image ; sur Twitter, un message ; sur Facebook, une publication. La question est la suivante : comment ces images sont-elles sélectionnées ? Comment savons-nous ce qui nous est présenté et qui nous le présente ? Nous n'avons pas vraiment de réponse à cette question car les algorithmes utilisés par les réseaux sociaux ne sont pas divulgués. Nous savons qu'ils sont adaptés à nos préférences, mais nous savons aussi que ces systèmes ne sont pas conçus pour les actualités : ils sont conçus pour partager des photos de bébé ou des photos de votre chien. Nous avons donc, en substance, le cocktail parfait pour diffuser des informations erronées. Nous ne savons pas pourquoi quelque chose nous est présenté, mais nous avons généralement tendance à réagir et à ne pas chercher à savoir pourquoi nous voyons ce que nous voyons, ou si l'information nous est présentée avec exactitude.

En tant qu'individus, nous pourrions très bien utiliser, reproduire les techniques des "fermes à trolls", n'est-ce pas ?

Jane Lytvynenko : Oui, c'est vrai. L'un des aspects les plus intéressants des fermes à trolls, je pense, est qu'elles jouent sur nos émotions, car elles nous font réagir et interagir physiquement avec Internet. Ainsi, par exemple, il est beaucoup plus efficace de susciter la colère que de présenter un rapport stérile sur l'économie ou le changement climatique. Et c'est précisément ce qui les rend si efficaces, car lorsque nous voyons quelque chose qui nous met en colère, nous avons envie de crier, d'argumenter, de nous impliquer d'une manière ou d'une autre. C'est quelque chose que nous faisons en tant qu'individus. Les trolls le comprennent et utilisent la même technique.

Ces "fermes à trolls" ne fonctionnent-elles que sur Facebook ?

Jane Lytvynenko : Si nous parlons autant de Facebook, c'est parce que la plateforme compte soi-disant deux milliards d'utilisateurs, soit plus de personnes que n'importe quel pays du monde. C'est un public énorme. Mais bien sûr, Facebook n'est pas le seul endroit où ces problèmes se produisent. Par exemple, nous savons que les algorithmes de recommandation de YouTube contribuent à la radicalisation, non seulement sur le plan politique, mais aussi dans des domaines tels que l'anti-vaccination. Twitter peut être très facilement manipulé par l'utilisation de bots et de propagande par le biais de systèmes informatiques. Des canaux comme Instagram et Snapchat sont très visuels et donc très difficiles à étudier pour les chercheurs, ce qui signifie que certains de ces problèmes sont difficiles à détecter. Nous avons également constaté une augmentation de la désinformation dans les messages privés, un phénomène accusé de provoquer des violences dans d'autres régions du monde. Il est encore plus difficile pour les journalistes et les chercheurs de repérer les fausses informations dans les messages, car elles se produisent dans le cadre de discussions de groupe.

Une personne que vous appréciez ou en qui vous avez confiance vous transfère quelque chose et vous le transférez à quelqu'un d'autre. C'est un partage rendu privé. Il est très difficile pour nous de comprendre l'ampleur de ce phénomène, car si vous ne faites pas partie de ce groupe, vous ne pouvez pas le voir. Cet écosystème fonctionne donc parce que chaque plateforme offre des moyens nouveaux et intéressants de menacer notre environnement informationnel.

Quelle est exactement la responsabilité des réseaux sociaux ?

Jane Lytvynenko : Au sein des réseaux sociaux, je dirais que l'une des principales responsabilités est d'abord d'identifier les mauvais acteurs, de manière proactive plutôt que réactive, et d'essayer de les retirer du réseau. Aux États-Unis, il y a un grand débat sur la liberté d'expression, mais la liberté d'expression ne signifie pas nécessairement que chacun a le droit d'exposer son message à un millier de personnes. Une autre chose que les réseaux sociaux pourraient faire, mais ne font pas, est de révéler le fonctionnement de leurs algorithmes. Des chercheurs du MIT ont découvert ce qu'ils appellent une "étiquette nutritionnelle" pour les algorithmes. Il s'agirait de quelque chose qui nous indiquerait combien et dans quelle mesure. Nous savons que de nombreuses personnes que Facebook classe politiquement à gauche ou à droite, à l'extrême gauche ou à l'extrême droite, ne sont en fait pas d'accord avec la façon dont Facebook les identifie. Mais parce que nous ne savons pas comment fonctionne cette classification, parce que nous n'avons pas vraiment de moyen de la modifier ou de dire à Facebook : "Hé, mes opinions politiques ont un peu changé, pourriez-vous faire une mise à jour ?", nous n'avons aucun moyen de contrôler l'environnement informationnel dans lequel nous nous trouvons.

Pensez-vous que la situation peut s'améliorer ?

Jane Lytvynenko : Bien qu'il y ait de la négativité sur Internet, que ce soit par la désinformation ou le ciblage de communautés vulnérables, le Web a également donné une voix aux gens et permis à de nombreuses communautés auparavant ignorées de s'exprimer. Je pense que nous sommes actuellement dans une période de transition où nous comprenons que quelque chose ne va pas. Nous comprenons que la bête que nous avons créée doit être apprivoisée. Et je pense que si nous prenons vraiment ce problème au sérieux, si les régulateurs, les entreprises technologiques et les utilisateurs individuels le prennent très au sérieux et à cœur, alors oui, je suis optimiste. Mais si nous ignorons le problème en espérant qu'il disparaisse, ou si nous décidons individuellement que "non, cela ne me concerne pas, je suis intelligent, je ne me laisse pas entraîner par ce genre de choses", alors ce problème persistera et affectera le fonctionnement de notre démocratie.