Les tactiques de plus en plus agressives de la Chine pour les campagnes de désinformation étrangères
Le 29 août, Meta a annoncé avoir récemment supprimé des milliers de comptes et de pages Facebook qui « faisaient partie de la plus grande opération secrète multiplateforme connue au monde », gérée par « des opérateurs géographiquement dispersés à travers la Chine ». L’annonce et son analyse détaillée ont fait la une des journaux du monde entier, attirant l’attention sur le type d’informations qui intéressent souvent principalement les entreprises de cybersécurité et les passionnés de politique numérique.
Mais de telles révélations ne sont que la pointe de l’iceberg lorsqu’il s’agit de la campagne évolutive de Pékin visant à alimenter en désinformation ciblée – des contenus manifestement faux ou trompeurs, souvent par l’utilisation de faux comptes – les utilisateurs des médias sociaux du monde entier.
Un examen de nombreuses enquêtes médico-légales, rapports de groupes de réflexion, rapports sur la transparence des plateformes et couverture médiatique publiés depuis juin révèle une tendance déconcertante, bien que peu surprenante : les acteurs liés à Pékin se livrent continuellement à des opérations de désinformation secrètes ou à d’autres opérations d’influence en ligne. Et ils expérimentent des tactiques plus sophistiquées, plus difficiles à détecter et potentiellement plus efficaces que les années précédentes, tout en s’attaquant à des questions qui sont au cœur du débat public dans les démocraties.
Cette réalité réaffirme les conclusions du rapport de Freedom House « L’influence mondiale des médias de Pékin », publié l’année dernière, et démontre que les démocraties doivent investir davantage de ressources dans la détection et l’atténuation des efforts de désinformation du régime chinois.
En élaborant une réponse appropriée, les décideurs politiques, les grandes entreprises technologiques, les chercheurs de la société civile et les utilisateurs ordinaires devraient garder à l’esprit les caractéristiques suivantes des dernières pratiques de désinformation de Pékin.
Expansion vers de nouvelles plateformes et de nouveaux publics
Les premières campagnes mondiales de désinformation documentées soutenues par Pékin dataient de 2017 et ciblaient généralement les anglophones et les chinois sur de grandes plateformes comme Twitter (maintenant X), Facebook et YouTube. Mais des rapports récents montrent que les efforts de manipulation du régime du Parti communiste chinois (PCC) s’étendent à de nombreuses autres plateformes, langues et audiences géographiques.
Le réseau identifié lors du retrait de Meta le mois dernier – une résurgence persistante d’un réseau précédemment exposé et contrecarré connu sous le nom de Spamouflage – s’est notamment étendu au-delà de Facebook et Instagram. Des liens ont été trouvés vers une cinquantaine d’autres applications, notamment TikTok, Reddit, Pinterest et Medium, ainsi que vers des forums en ligne locaux en Asie et en Afrique. Meta a suggéré que le pivotement vers des plates-formes plus petites pourrait avoir été une réponse délibérée à la surveillance, à la détection et aux suppressions accrues des grandes entreprises.
Un autre rapport publié par Microsoft le 7 septembre a révélé toute une série d’efforts d’influence, depuis des réseaux de faux comptes jusqu’à un corps d’influenceurs liés à l’État chinois qui se font passer pour des commentateurs indépendants. L’entreprise comptait au moins 230 employés ou affiliés des médias d’État sur plusieurs plateformes, avec des comptes qui touchaient 103 millions de personnes dans 40 langues différentes. Le rapport décrit une expansion vers de nouvelles langues – comme l’indonésien, le croate et le turc – et de nouvelles plateformes – notamment Vimeo, Tumblr et Quora – par des influenceurs humains et des comptes automatisés au cours de l’année écoulée.
Tactiques plus sophistiquées pour accroître l’engagement et éviter la détection
Alors que certains réseaux, comme celui exposé par Meta, ont apparemment eu du mal à obtenir un véritable engagement de la part des utilisateurs des médias sociaux, d’autres initiatives récentes ont connu plus de succès. Le rapport de Microsoft a révélé une utilisation émergente d’images créées avec des outils d’intelligence artificielle (IA) générative et partagées sous forme de mèmes par des comptes imitant les électeurs américains de tout le spectre politique. De telles images, malgré leurs défauts reconnaissables en matière d’IA, auraient bénéficié d’une diffusion supplémentaire auprès d’utilisateurs réels. En effet, la vidéo et d’autres médias visuels sont une caractéristique récurrente du contenu désormais partagé, selon le rapport.
D’autres tactiques efficaces incluent l’exploitation de hashtags populaires liés à l’actualité, comme cela s’est produit dans les campagnes sur les questions politiques australiennes, ou la programmation de faux comptes pour publier des commentaires à la première personne.
Une autre tactique utilise des images non attribuées pour éviter la détection facile d’un lien avec les médias d’État chinois. Une enquête menée par la société de cybersécurité Nisos a révélé qu’un réseau de comptes en espagnol et en portugais, qui n’étaient pas qualifiés de médias d’État chinois selon l’ancienne politique de Twitter, avait publié des captures d’écran d’articles de médias d’État ou utilisé des images et des vidéos du China News Service sans attribution. . Dans un autre cas, l’Australian Strategic Policy Institute (ASPI) a découvert que les réseaux de désinformation soutenus par Pékin reconstituaient leurs rangs après la suppression de comptes en achetant de fausses personnalités auprès d’organisations criminelles transnationales d’Asie du Sud-Est et en les utilisant pour publier des contenus faux ou source de discorde.
Plans élaborés pour blanchir le contenu et les récits
Parmi les découvertes les plus frappantes de la récente série d’enquêtes figurent les diverses manières dont des entités mandataires ou des comptes sur de multiples plateformes sont utilisés pour « blanchir » du contenu, augmentant ainsi sa crédibilité et obscurcissant ses origines au point que même certaines personnes impliquées dans sa production ne le savent pas.
Un exemple dévoilé dans l’enquête Meta était centré sur un « rapport de recherche » de 66 pages chargé d’erreurs, affirmant que le gouvernement américain cachait l’origine du COVID-19. Le document a été publié sur Zenodo.org, puis promu par de faux comptes via deux vidéos distinctes sur YouTube et Vimeo ; un article basé sur ces éléments a ensuite été publié sur LiveJournal, Medium et Tumblr, et enfin, des comptes sur Facebook, X, Reddit et d’autres plateformes ont amplifié ces liens.
Dans une autre série d’incidents notables révélés par la société de cybersécurité Mandiant en juillet 2023, une société chinoise de relations publiques connue pour ses liens avec le gouvernement s’est appuyée sur des sites Web de recrutement d’indépendants et des services de presse aux États-Unis. Cela leur a permis d’enrôler des Américains à leur insu pour créer un contenu conforme aux récits du PCC ou critiquant la politique américaine. L’entreprise a publié le matériel résultant sur des domaines de sites Web d’information légitimes via les services de fil de presse.
Dans un cas datant de la mi-2022, la société de relations publiques a réussi à recruter un musicien et un acteur pour organiser de petites manifestations réelles à Washington, DC, dont les images ont ensuite circulé dans le cadre d’une campagne d’influence visant à discréditer le Sommet international sur la liberté religieuse de cette année-là. et les efforts des législateurs américains pour interdire l’importation de produits fabriqués par le travail forcé ouïghour.
Recours à la diffamation et à l’incitation pour discréditer les reportages factuels et perturber les sociétés démocratiques
En termes d’actualité, ces campagnes de désinformation ont apparemment doublé une stratégie à long terme visant à aller au-delà des simples messages pro-PCC et à tenter en réalité d’amplifier la discorde sur des questions politiques et sociales clés, ou de nuire à la réputation des militants et des journalistes. , les décideurs politiques et les gouvernements démocratiques.
Le réseau actif sur les plateformes Meta cherchait à harceler ou à discréditer des journalistes aux États-Unis (comme Jiayang Fan), des commentateurs politiques et des dissidents (comme Chen Pokong) et occasionnellement des élus (dont le représentant républicain Jim Banks et la représentante démocrate Nancy). Pelosi). Lors d’un incident survenu en mai et révélé en août par le gouvernement canadien, un réseau de la plateforme WeChat de Tencent s’est engagé dans une campagne coordonnée visant à salir la réputation du député Michael Chong, dont le père est originaire de Hong Kong et qui a vivement critiqué le gouvernement canadien. la répression croissante là-bas et en Chine.
Les réseaux de désinformation ont également visé des groupes de réflexion et d’autres organisations non gouvernementales dont les enquêtes sur les campagnes transnationales de répression et de désinformation du PCC ont été particulièrement efficaces pour stimuler la sensibilisation du public et les réponses politiques. Il s’agit notamment des organisations Safeguard Defenders et ASPI, basées à Madrid, qui ont été victimes de campagnes agressives et de grande envergure de harcèlement, de menaces et d’usurpations d’identité. ASPI a découvert que 70 pour cent des 50 premiers résultats de recherche en langue chinoise pour le nom de l’organisation sur YouTube avaient été « publiés par des comptes inauthentiques liés au PCC ».
En ce qui concerne les sujets controversés, les mèmes générés par l’IA découverts par Microsoft tournaient autour de questions telles que la violence armée et le mouvement Black Lives Matter aux États-Unis. Les recherches de l’ASPI regorgent d’exemples de faux comptes liés à la Chine qui tentent d’influencer le discours public sur des questions sociales nationales telles que le genre, les agressions sexuelles et les droits des peuples autochtones. Ces comptes ont également tenté d’amplifier la frustration du public face aux pressions liées au coût de la vie et aux faux scandales ciblant les institutions australiennes telles que les partis politiques, le Parlement et le système bancaire.
Nouvelle vulnérabilité à l’exposition et au refoulement
Les propagandistes du PCC ont de bonnes raisons de consacrer davantage d’énergie à dissimuler leurs efforts de désinformation. Grâce en partie aux résultats accumulés des enquêtes sur les tactiques désormais associées aux campagnes liées à la Chine, ainsi qu’à une récente série d’actes d’accusation fédéraux américains qui ont clarifié les liens entre les réseaux de faux comptes et le ministère chinois de la Sécurité publique, il devient plus facile pour observateurs pour retracer et attribuer des campagnes spécifiques à Pékin.
Meta et Microsoft, par exemple, ont pu établir des attributions relativement définitives, en s’appuyant sur des modèles de publication communs, la localisation des opérateurs de comptes, l’utilisation d’une infrastructure de serveur ou de proxy commune, ou des informations disponibles sur l’Internet chinois concernant les liens gouvernementaux avec le public. sociétés de relations, sociétés de cybersécurité et sites Web de fausses informations. Le gouvernement canadien a jugé « hautement probable » que la campagne contre Chong soit liée à Pékin, tandis que l’ASPI a déclaré que le comportement qu’il a documenté était similaire à celui de réseaux secrets liés au PCC précédemment révélés.
Cependant, malgré cette révélation, rien n’indique que le régime chinois envisage de freiner sa manipulation. En fait, il se prépare presque certainement à une activité plus agressive centrée sur les élections présidentielles de 2024 aux États-Unis et à Taiwan.
Les évaluations récentes mentionnées ci-dessus mettent en évidence certains des points forts des réponses démocratiques actuelles qui contribuent à préserver l’intégrité des communications en ligne et des processus politiques, notamment les rapports de transparence des entreprises technologiques, la surveillance gouvernementale et les enquêtes menées par les entreprises de cybersécurité. Mais ils mettent également en lumière des vulnérabilités, telles que l’incohérence de la surveillance et des retraits entre les plates-formes, en particulier les services les plus récents et les plus spécialisés, et la mesure dans laquelle les réseaux liés aux CCP profitent pleinement de ces lacunes.
Sous sa nouvelle direction, X a démantelé de nombreuses politiques et équipes qui avaient accru la transparence et contrecarré les comportements inauthentiques sur Twitter. Pendant ce temps, TikTok, propriété de la société chinoise ByteDance, a reconnu avoir supprimé des centaines de comptes liés au réseau exposé aux méta, mais seulement après avoir été interrogé par des journalistes. WeChat, une application du géant chinois de la technologie Tencent, n’a pas encore partagé d’informations sur les campagnes détectées par d’autres sur sa plateforme.
Dans ce contexte, il est de plus en plus important que le public, la société civile, les décideurs politiques américains et leurs pairs démocrates fassent pression et créent des structures d’incitation qui obligent toutes les entreprises technologiques à traiter la menace de désinformation – y compris celle de Pékin – avec le sérieux qu’elle mérite. .