Les deepfakes et la désinformation constituent une menace croissante en Asie
Des nouvelles récentes sur l’utilisation d’avatars générés par ordinateur par une campagne d’influence pro-Chine ont une fois de plus braqué les projecteurs sur l’utilisation de deepfakes. La campagne d’influence a été observée pour la première fois par la société de renseignement Graphika fin 2022. Des vidéos d’avatars d’IA réalistes, représentant des présentateurs de nouvelles sur le point de vente fictif Wolf News, ont promu les intérêts du Parti communiste chinois. Les vidéos commentaient des sujets tels que la violence armée aux États-Unis et l’importance de la coopération sino-américaine pour la reprise de l’économie mondiale après le COVID-19.
Des enquêtes antérieures menées par Graphika et d’autres chercheurs ont révélé l’utilisation de faux visages générés par l’IA et de vidéos montées hors contexte visant à induire en erreur en fabriquant les mots ou les actions d’un individu. Ce qui le distinguait des autres images ou médias précédents générés par l’IA était l’implication d’une campagne d’information alignée sur l’État pour générer de faux personnages à l’aide de technologies deepfake.
Cette affaire place les préoccupations concernant les deepfakes au premier plan des discussions publiques et soulève de sérieuses questions : quel est l’impact des deepfakes et de la désinformation, et quelle est l’importance de l’approfondissement de la commercialisation de la technologie deepfake ?
Les deepfakes sont générés à l’aide d’une forme spécifique d’intelligence artificielle connue sous le nom d’apprentissage en profondeur. Les algorithmes d’apprentissage en profondeur peuvent échanger des visages à l’image d’une personne dans une vidéo ou une image avec d’autres. La création de deepfakes a pris de l’importance auprès du public via des photos de célébrités échangeant des visages en ligne, avec des vidéos deepfake de Tom Cruise sur TikTok en 2021 qui ont captivé le public grâce à la personnalité hyper réaliste de l’acteur.
Les deepfakes sont désormais omniprésents sur les réseaux sociaux, avec des fonctionnalités et des applications d’IA permettant aux utilisateurs de générer des avatars d’eux-mêmes ou de créer un personnage entièrement nouveau. L’ajout de réseaux antagonistes génératifs (GAN) au mélange permet la création de nouveaux visages uniques introuvables dans les données d’apprentissage de l’algorithme et non basés sur des personnes existantes. La popularité de ces technologies a conduit à un boom du développement d’applications et de fonctionnalités offrant des avatars IA. Les progrès de la technologie de l’IA ont rendu plus difficile la distinction entre les images réelles et les images deepfakes, brouillant davantage la ligne grise entre réalité et fiction.
Cette prévalence a suscité des inquiétudes concernant l’érosion de la vie privée et le potentiel d’abus et d’exploitation. La technologie de l’IA générative a été utilisée pour la création de pornographie deepfake, qui représentait 96 % de toutes les vidéos deepfake en ligne en 2019. Des individus ordinaires ont également été ciblés par des campagnes de fausse pornographie. Les services proposant de modifier des images de femmes en photos nues ont également augmenté. L’un de ces cas concernait l’application d’IA générative Lensa, qui a été critiquée pour avoir permis à son système de créer des images entièrement nues à partir de photos de profil d’utilisateurs. Toute femme peut être victime de ce strip-tease synthétique et voir ses images « nues » partagées sur plusieurs plateformes en ligne.
L’utilisation de la technologie deepfake dans les opérations d’influence et les campagnes de désinformation n’est pas nouvelle. Plusieurs cas de comportement inauthentique coordonné impliquant l’utilisation de deepfakes ont été identifiés. En 2019, Facebook a supprimé un réseau inauthentique coordonné de 900 pages, les comptes étant principalement gérés hors du Vietnam. Le réseau était lié à Epoch Media Group, un groupe de médias d’extrême droite basé aux États-Unis connu pour ses tactiques de désinformation. La plupart des comptes identifiés utilisaient de fausses photos de profil générées par l’IA pour créer des comptes inauthentiques sur Facebook, se faisant passer pour des Américains sur des groupes Facebook. De fausses photos de profil de journalistes et de consultants – générées par la technologie de l’IA – ont été utilisées. Ces deepfakes hyper réalistes ont été combinés avec de fausses identités de journalistes pour écrire des articles pour des publications conservatrices en ligne.
Les impacts potentiels des deepfakes ont sonné l’alarme. Le Federal Bureau of Investigation (FBI) a averti dans son rapport d’évaluation des menaces de mars 2021 que l’utilisation de contenu synthétique pour les cyberopérations et les opérations d’influence étrangère pourrait être exploitée par des acteurs malveillants. Le rapport d’évaluation a en outre déclaré que les opérations d’influence utilisant des images de profil synthétiques générées par l’IA étaient particulièrement préoccupantes, permettant potentiellement aux opérateurs de masquer leur identité derrière des personnages générés par deepfake pour diffuser de la désinformation en ligne.
Les deepfakes en Asie ont déjà été utilisés à des fins politiques. Un exemple notable de deepfake pour une campagne politique a été lors des élections à l’Assemblée législative de 2020 en Inde. Des vidéos manipulées du président du Bharatiya Janata Party (BJP), Manoj Tiwari, ont été distribuées dans 5 700 groupes WhatsApp à Delhi et dans les environs, atteignant environ 15 millions de personnes en Inde. Des visages générés par l’IA ont été utilisés dans des campagnes d’influence coordonnées prétendument originaires d’Asie. Un exemple concernait le déploiement d’un groupe de 14 comptes Twitter non authentiques utilisant des visages générés par l’IA comme images de profil faisant la promotion des capacités 5G chinoises en Belgique. L’utilisation de visages générés par l’IA élimine le besoin d’utiliser des images de profil volées pour masquer de faux comptes, évitant ainsi le risque de détection par les techniques d’enquête traditionnelles.
Dans le passé, les campagnes d’influence pro-chinoises avaient un succès limité. Dans l’exemple de Wolf News, les avatars générés par l’IA étaient de mauvaise qualité, avec la narration livrée par les ancres de manière saccadée. Les scripts anglais étaient également remplis d’erreurs grammaticales. La portée de la campagne était également minime, car la campagne utilisait de faux comptes personnels pour amplifier leur portée en ligne. Bien que l’impact de la campagne ait été limité, de telles campagnes soulèvent la question de la commercialisation croissante des services de deepfake.
La montée en puissance des deepfakes a entraîné une augmentation du nombre d’entreprises générant des deepfakes avancés de qualité. Les services de ces sociétés sont principalement utilisés à des fins de divertissement et de formation, par exemple pour créer des vidéos sur les clients et les ressources humaines. Mais l’essor des services commerciaux pour générer des vidéos deepfake fournit des ressources facilement disponibles pour les acteurs des opérations d’influence, qu’ils soient soutenus par l’État ou non. Cela soulève des inquiétudes quant à la modération des services technologiques deepfake.
L’application commerciale des médias synthétiques continuera d’être une tendance croissante en raison de la popularité de ces applications sur les médias sociaux et sur Internet. La génération de deep fakes de haute qualité à des fins de désinformation ou à des fins politiques pourrait se produire plus fréquemment à l’avenir. De tels deepfakes commercialisés pourraient devenir des outils clés dans la boîte à outils de désinformation pour les propagandistes du monde entier, car les pays dotés de capacités d’IA avancées et d’un accès à de grandes quantités de données peuvent obtenir des avantages dans la guerre de l’information.
Il pourrait également y avoir une augmentation des entreprises spécialisées dans la génération de deepfakes à la location, qui pourraient fournir aux clients (soutenus par l’État ou non) souhaitant monter des campagnes de désinformation toute une suite d’outils. Les deepfakes pourraient être superposés à des campagnes de propagande pour améliorer l’efficacité. Cela pourrait potentiellement aboutir à une industrie artisanale de génération de deepfake en tant que service.
La fusion de GPT – un modèle de langage de réseau neuronal d’apprentissage en profondeur formé sur de grandes quantités de texte – avec des deepfakes soulève d’autres inquiétudes alors que les avancées technologiques vont plus loin que la réglementation. En combinant plusieurs techniques, ces outils peuvent amplifier le travail des acteurs malveillants pour produire des artefacts médiatiques encore plus convaincants pour une intention hostile, déstabilisant davantage la confiance et la crédibilité de la société.
Interrogé sur les vidéos pro-Chine créées par les services proposés par son entreprise, le PDG de Synthesia a souligné la nécessité pour les régulateurs de fixer des règles plus définitives sur la manière dont les outils d’IA pourraient être utilisés. L’augmentation de la commercialisation des applications et services de médias synthétiques et le manque de clarté des régulateurs sur l’utilisation des outils d’IA permettent à la désinformation de proliférer en ligne. Les régulateurs ont tenté de définir des paramètres et des règles selon lesquels les deepfakes devraient être réglementés. La loi sur l’intelligence artificielle de l’UE – surnommée la première loi sur l’IA au monde, qui devrait être adoptée en 2023 – oblige les créateurs à divulguer le contenu deepfake.
En Asie, la Chine interdit l’utilisation de deepfakes, qui sont jugés nuisibles à la sécurité nationale et à la société. Les nouvelles réglementations chinoises exigent que les deepfakes soient clairement étiquetés comme générés ou édités synthétiquement, et l’identité des individus dans le deepfake doit être connue de l’entreprise. Des tentatives similaires de réglementation sont également en cours aux États-Unis, au Royaume-Uni, en Corée du Sud et à Taïwan.
Un fort accent sur l’éducation du public pourrait également aider. Les gens ont tendance à surestimer leur capacité à faire la distinction entre un contenu visuel authentique et non authentique, et sont généralement faibles pour se prémunir contre la tromperie visuelle. Les initiatives existantes d’éducation aux médias et de vérification des faits peuvent continuer à jouer un rôle dans la sensibilisation du public contre les fakes superficiels et les deepfakes tout en renforçant l’importance de l’alphabétisation visuelle.
Le public doit être formé non seulement aux compétences en littératie médiatique, mais aussi à un ensemble complet de compétences en littératie informationnelle, y compris et mettant l’accent sur la littératie visuelle. Cela peut créer et améliorer la sensibilisation du public et sa compréhension des deepfakes. L’engagement du public peut aider à inoculer les gens aux méfaits potentiels des progrès émergents de la technologie de l’IA deepfake.