Aligner l'IA avec le système de valeurs autoritaires de la Chine
L'ascension rapide de Deepseek a prouvé à nouveau que la seule constante fiable dans le monde du développement de l'IA est qu'elle est rapide et imprévisible. Quand il est devenu clair que la performance réclamations du modèle de raisonnement en profondeur à faible coût de la Chine a été en mesure de rivaliser dans au moins certains repères avec le modèle O1 d'Openai, Wall Street dégringard. Cela peut prendre un certain temps et peut-être encore plus de frais juridiques que le coût de développer Deepseek pour déterminer si les Chinois avaient mal utilisé Modèle propriétaire d'Openai pour former leur propre produit, mais celui de Deepseek impact sur la vue générale de L'industrie de l'IA chinoise et une nouvelle appréciation pour son approches créatives est indéniable.
Dès que Deepseek a été annoncé comme le nouveau prodige du marché du chatbot, les utilisateurs curieux ont commencé à remarquer les «caractéristiques chinoises» de l'application: un silence assourdissant sur des questions telles que Tiananmen ou Taiwan. Ce n'est en aucun cas surprenant et est entièrement conforme aux règles et réglementations de la Chine sur l'IA générative.
Après que la Chine ait connu son propre moment AI Spoutnik en mai 2017, lorsque son prodige est Ke Jie Perdu contre l'alphago logiciel propulsé par l'IA et parrainé par Google, le Conseil d'État chinois a répondu immédiatement, libérant un «Plan de développement pour une nouvelle génération d'IA»En juillet 2017. Ce plan directeur a décrit des jalons clairs jusqu'en 2030 visant à faire de la Chine un leader mondial de la technologie de l'IA et de l'application d'IA, mais il a également explicitement reconnu que la transformation de l'IA nécessite un cadre normatif fait des directives éthiques et des règles juridiques.
La Chine a initialement suivi un chemin similaire aux autres juridictions axées sur les questions éthiques dans le déploiement et l'utilisation de l'IA, telles que les «normes éthiques du ministère des Sciences et de la Technologie pour une nouvelle génération d'IA», qui comprenait des aspects tels que l'équité, la confidentialité, la contrôlabilité, fiabilité ou responsabilité. Contrairement à l'approche de l'Union européenne AI ACLa Chine n'a adopté qu'un ensemble de réglementations juridiques très spécifiques, qui ciblent les domaines d'application de l'IA qui sont considérés comme sensibles au régime. Ce faisant, le gouvernement chinois a répondu aux capacités croissantes de la technologie de l'IA et a également montré son propre préoccupations croissantes sur l'impact de l'IA sur la société. En 2023, les deux Dispositions de synthèse profonde et le Mesures provisoires sur l'IA générative ont été promulgués, établissant des concepts généraux pour aligner l'IA sur l'opinion du régime sur la façon dont les choses devraient être.
Les dispositions profondes de synthèse – qui régissent les technologies qui utilisent l'apprentissage en profondeur, la réalité virtuelle et d'autres algorithmes synthétiques pour générer des informations réseau telles que le texte, les images, l'audio, la vidéo et les environnements virtuels – stipuler, entre autres, que ces services doivent adhérer aux La direction politique correcte, l'orientation de l'opinion publique et l'orientation de la valeur. De même, les mesures provisoires sur les mandats génératrices de l'IA qui ont généré le contenu doivent respecter les «valeurs fondamentales socialistes» et ne doivent pas inciter à la subversion de la souveraineté nationale ou du renversement du système socialiste; mettre en danger la sécurité nationale et les intérêts ou nuire à l'image du pays; inciter le séparatisme ou saper l'unité nationale et la stabilité sociale; défendre le terrorisme ou l'extrémisme; ou promouvoir la haine ethnique et la discrimination ethnique, la violence et l'obscénité, et des informations fausses et nuisibles.
Cependant, ce méli-mélo de DO et à ne pas ne fournit guère un ensemble clair de principes directeurs qui pourraient être opérationnalisés par les développeurs d'IA chinois. Maintenir un concept aussi élevé et ouvert que le valeurs fondamentales socialistesun ensemble de 12 valeurs canonisé par le PCC en 2012, pose certainement un problème difficile pour entraîner une IA générative chinoise.
L'alignement de l'IA avec un tel système de valeur descendante politiquement motivé a justifié des directives supplémentaires, que les régulateurs chinois ont fournis en établissant des normes qui vont bien au-delà des simples normes ou exigences limitées au domaine technologique. Les normes jouent un rôle important dans le cadre réglementaire de la Chine pour l'IA, car la Chine adopte une approche systématique de la normalisation dans tous les domaines liés à l'IA. Le ministère de l'industrie et des technologies de l'information a publié une directive nationale pour l'établissement de normes pour la nouvelle génération d'IA dès 2020, qui a été mise à jour en 2024 et couvre les aspects techniques, les normes spécifiques à l'industrie, ainsi que pour les normes réglementaires et de sécurité.
La norme de sécurité la plus importante à ce jour a été publiée au début de 2024 par le Comité technique (TC) 260qui a publié une norme sur les exigences de sécurité de base pour les services d'intelligence artificielle génératifs. Ce puissant comité technique national de normalisation de la sécurité de l'information sous les auspices de l'administration du cyberespace de la Chine est chargé de fixer des normes pour presque tout ce qui concerne la sécurité du cyber et des données, ainsi que le développement ultérieur de l'IA.
La norme susmentionnée sur les exigences de sécurité pour l'IA générative établit des règles pour une évaluation de la sécurité des applications génératrices d'IA en Chine, qui peuvent être effectuées soit par des prestataires de services eux-mêmes, soit par une agence d'évaluation de la sécurité tierce. Encore une fois, l'alignement avec les valeurs fondamentales socialistes est une référence critique pour déterminer la sécurité des applications d'IA chinois. Bien que cette norme fait écho aux grandes catégories de contenu interdites susmentionnées, elle précise cependant que l'IA chinoise peut compter sur jusqu'à 5% des données de formation illégales ou nocives et ne générer pas plus de 10% du contenu dangereux. On sait peu de choses sur le fonctionnement de cette évaluation de la sécurité, mais certains fournisseurs tiers dans ce domaine ont publié au moins quelques informations superficielles sur leur analyse comparative.
La société de technologie chinoise Equal Ocean a publié un aperçu de son comparatif évaluation de la qualitéqui a testé le GPT 3.5 d'Open AI contre les LLM chinois tels que Baidu's Ernie Bot ou Tongyi Qianwen d'Alibaba. Chatgpt a obtenu un score extrêmement faible dans les tests de sécurité, car il n'était apparemment pas en mesure de «fournir des conseils corrects basés sur les valeurs fondamentales socialistes» et a été particulièrement faible pour fournir des résultats sûrs sur la catégorie non spécifiée de «l'opinion publique et des sujets chauds». Bien qu'il n'approvisionne pas de résultats spécifiques, la China Academy of Information and Communications Technology a publié un Rapport d'évaluation de la sécurité dans lequel ils ont testé des questions «politiquement sensibles», qui ont été classées comme «l'orientation politique du pays, l'approche des valeurs fondamentales, les problèmes de souveraineté territoriale, les questions historiques importantes et les questions religieuses».
Discuter du Parti communiste chinois, du patriotisme, de Taïwan, de Mao Zedong ou de l'islam dans le Xinjiang ne sera guère possible avec une IA chinoise – à moins, bien sûr, l'utilisateur d'avoir la patience d'attendre les 10% des réponses dangereuses qui sont apparemment autorisées.
Il n'est guère surprenant que la Chine s'assure que son IA générative est fortement censurée. Cependant, Deepseek a fourni un très bon exemple que le système de censure d'IA de l'IA chinois de règles juridiques, de normalisation et d'évaluations de sécurité externalisées est opérationnelle et efficace. La Chine peut ne pas être deux ans Derrière dans son développement de l'IA, et son alignement de valeur autoritaire pour une IA générative prouve, du moins jusqu'à présent, sa capacité à maintenir l'IA dans une cage illibérale. Ces modèles peuvent difficilement fournir des solutions utiles pour les sociétés ouvertes, mais elles peuvent être très tentantes pour une utilisation dans d'autres juridictions illibérales.