La Chine ouvre la voie à la réglementation de l’IA générative – aux conditions du PCC
En avril, le régulateur chinois de l’internet a publié un projet de dispositions régissant « l’intelligence artificielle générative » (IA) (en chinois, 生成式人工智能). La réglementation vise à assurer « un développement sain et une application normalisée » des services d’IA qui peuvent créer du texte, des vidéos, de la voix et des images.
Le ChatGPT d’OpenAI n’est qu’une des nombreuses technologies de ce type qui émergent rapidement dans le monde. Bien que les États-Unis soient en tête dans ce domaine, le gouvernement chinois a devancé les États-Unis dans la création d’un cadre réglementaire. La réponse de la Chine à ChatGPT – ERNIE Bot de Baidu – est à peine sortie de la porte avec des débuts décevants. Mais un examen plus approfondi du développement et de la commercialisation de ces technologies en Chine révèle que le gouvernement essaie activement de garder une longueur d’avance sur cette tendance croissante.
Ceci est en grande partie motivé par le désir du Parti communiste chinois (PCC) de maintenir la stabilité sociale et politique en gardant intacts ses mécanismes de censure sur Internet. Cependant, la capacité à déployer de larges restrictions sans contestation permet également à Pékin d’agir rapidement. Mis à part les contrôles de l’information, l’approche avant-gardiste de la Chine pour réglementer l’entrée et la sortie des grands modèles linguistiques (LLM) peut encore offrir aux législateurs ailleurs – y compris en Europe – des angles intéressants à prendre en compte lors de l’élaboration de leur propre cadre réglementaire.
Adoption généralisée pour un usage commercial
L’IA générative a connu une croissance explosive ces dernières années, montrant son potentiel de transformation pour les économies et les sociétés, mais soulevant également d’énormes défis de gouvernance. ChatGPT et ses pairs ont démontré une étonnante capacité à comprendre et à composer du texte, qui ne fera que s’améliorer avec le temps. Les générateurs d’images comme Midjourney peuvent générer des illustrations originales basées sur des invites de texte. Les progrès de la technologie de réalité virtuelle et augmentée pour créer des simulations immersives transforment les domaines du jeu aux soins de santé. Parallèlement à ces percées, l’IA générative imprègne déjà les médias sociaux sous la forme de filtres d’amélioration des photos et des vidéos. Ces technologies se sont accompagnées d’une série de préoccupations en matière de confidentialité, de sécurité, d’éthique et de socio-économie.
En Chine, ChatGPT a été rapidement interdit par les censeurs du gouvernement, et les entreprises se sont efforcées de développer des alternatives nationales. Mais l’IA générative a déjà été largement adoptée à des fins commerciales. Un rapport de l’Institut d’IA de l’Université Tsinghua en cite quelques-uns, notamment des programmes télévisés qui mettent en valeur la capacité des programmes de génération de voix et d’écriture de poèmes. Dans un cas, l’IA générative a été utilisée pour enregistrer des séquences de films précédemment tournées, remplaçant les visages d’acteurs qui avaient enfreint les directives morales de l’État. L’agence de presse officielle chinoise Xinhua utilise régulièrement une « ancre d’IA » simulée dans une partie de ses segments d’information en ligne. Dans un livre blanc publié en 2020, Tencent a souligné le potentiel bénéfique du contenu généré par l’IA dans des domaines allant du commerce électronique aux soins de santé.
L’adoption généralisée a rapidement suscité la controverse. En 2019, une application mobile appelée ZAO qui permet aux utilisateurs d’échanger leurs visages dans de courts clips vidéo est devenue très populaire du jour au lendemain. Il a été retiré des étagères presque aussi rapidement lorsque les régulateurs ont constaté qu’il violait la vie privée des utilisateurs et les droits des données.
L’IA générative, en particulier impliquant des vidéos modifiées par l’apprentissage automatique connues sous le nom de deepfakes, permet des pratiques d’une nature beaucoup plus néfaste. En 2021, les autorités chinoises ont découvert que des criminels avaient créé des vidéos faciales générées par l’IA à partir de photos Internet récupérées pour s’inscrire illégalement à des comptes de paiement en ligne. La Chine n’est pas la seule à faire face à de telles menaces : en 2022, les maires de plusieurs villes européennes ont été usurpés lors d’appels vidéo par quelqu’un utilisant des séquences vidéo modifiées pour se faire passer pour le maire de Kiev.
Partout, les régulateurs luttent pour garder une longueur d’avance sur la technologie
Alors que les histoires d’utilisation abusive de l’IA générative sont similaires dans le monde entier, les réactions des gouvernements ont différé. ChatGPT a pris au dépourvu les rédacteurs de la loi sur l’IA de l’Union européenne, montrant que les législateurs sont aux prises avec des systèmes d’IA à usage général qui permettent simultanément des applications inoffensives et hautement nuisibles.
Pékin, quant à lui, a pris les premières mesures. En réponse à l’incident de ZAO, l’Administration du cyberespace de Chine (CAC) a ordonné aux fournisseurs de services d’information en ligne d’examiner et d’étiqueter clairement tout contenu généré par l’IA. Les règles ont également interdit l’utilisation de l’IA générative pour produire et diffuser de fausses nouvelles. S’appuyant sur ces dispositions antérieures, en janvier de cette année, la Chine a commencé à appliquer une législation réglementant l’utilisation de la « synthèse profonde » (深度合成), un terme utilisé auparavant pour l’IA générative.
Les efforts de gouvernance de la Chine attirent plus largement l’attention sur les impacts sociétaux plus larges des modèles génératifs. Outre les exigences en matière d’étiquetage, la réglementation sur la synthèse approfondie comprenait déjà d’autres dispositions telles que l’obligation pour les fournisseurs de services de dissiper les rumeurs et les fausses informations, de soumettre leurs algorithmes pour examen via le système de classement géré par CAC et de s’assurer que les données utilisées pour former leurs modèles d’IA a été obtenu légalement. Le projet de règles d’avril va encore plus loin, exigeant que tous les nouveaux produits subissent une évaluation de sécurité avec le CAC avant leur lancement.
En plus de l’élaboration de la réglementation, le gouvernement a également soutenu des startups et des projets spécialisés dans la détection de deepfake, comme le spin-off RealAI de l’Université de Tsinghua (l’UE soutient des efforts similaires). Conscient des risques de sécurité associés à la diffusion de contenus générés par l’IA, le principal groupe de réflexion du ministère de l’Industrie et des Technologies de l’information a publié en mars la toute première norme industrielle chinoise pour l’évaluation des produits d’IA générative.
L’approche de Pékin reflète sa position avant-gardiste envers la pénétration de l’IA dans la société, mais aussi une capacité à agir rapidement sur la réglementation impensable dans les pays régis par l’État de droit. Les autorités chinoises sont susceptibles d’adopter le déploiement de grands modèles linguistiques dans des secteurs utiles comme la conduite autonome ou les soins de santé, mais sont également préoccupées par le potentiel de la technologie à mobiliser l’opinion publique, mettant ainsi en danger la sécurité de l’État. Les efforts de réglementation de la Chine reposent également sur le désir de maintenir un contrôle social et politique. Par exemple, le projet de règles souligne que le contenu généré par l’IA doit « refléter les valeurs socialistes fondamentales et… ne pas contenir de contenu qui subvertit le pouvoir de l’État ».
L’obsession du PCC pour le contrôle de l’information pourrait apporter des règles plus strictes
Il reste à voir combien de temps encore l’IA chinoise prospérera, car le PCC est obsédé par le contrôle de l’information. En ce qui concerne Internet et les technologies numériques, le succès de la Chine a souvent été attribué à la tolérance initiale des régulateurs à l’égard de l’expérimentation. Avec les LLM, Pékin devra peut-être simplement vivre avec le risque que les chatbots renvoient des informations politiquement sensibles aux utilisateurs. Les démocraties peuvent être plus lentes à appliquer la réglementation, mais elles pourraient finalement créer un environnement plus propice au potentiel de transformation de l’IA.
Néanmoins, les législateurs des autres pays devraient réfléchir aux efforts de réglementation de la Chine au-delà de l’autorité trop large que le PCC se donne pour restreindre la liberté d’expression. Le projet de règlement impose une responsabilité importante aux fournisseurs de services d’IA générative, y compris l’étiquetage du contenu généré et la protection des données personnelles. Lors de la collecte de données pour la formation de grands modèles d’IA, les fournisseurs doivent garantir l’exactitude, éviter les biais et respecter les droits de propriété intellectuelle. Ils sont également responsables de la sortie de leurs modèles – ils ne peuvent pas produire de contenu discriminatoire en fonction de la race, du sexe, de la religion ou d’autres caractéristiques des utilisateurs.
Bien que la faisabilité de l’application soit incertaine, certaines de ces exigences pourraient donner matière à réflexion alors que les décideurs réfléchissent à la manière dont cette nouvelle technologie puissante devrait être réglementée dans les sociétés démocratiques libérales.