Global Competition for AI Regulation, or a Framework for AI Diplomacy?

Concurrence mondiale pour la réglementation de l’IA, ou cadre pour la diplomatie de l’IA ?

L’intelligence artificielle (IA) occupe aujourd’hui une place centrale dans la compétition technologique mondiale, en particulier depuis la lancement commercial du ChatGPT d’OpenAI il y a un an. Aujourd’hui, la course au leadership technologique entre les entreprises et les nations s’est étendue à la sphère de la réglementation et de l’établissement de règles, les dirigeants nationaux et les hommes politiques proclamant qu’ils je ne veux pas répéter les mêmes erreurs d’être en retard pour réglementer Internet et les médias sociaux.

Au cours des dernières semaines, nous avons assisté à des annonces majeures de la part des États-Unis, sous la forme d’un décret présidentiel sur l’IA ; un cadre de plaidoyer de la Chine sur la gouvernance de l’IA émergeant du sommet du dixième anniversaire de son initiative « la Ceinture et la Route » ; et le AI Safety Summit qui se tient au Royaume-Uni. La tâche délicate de réglementer l’IA, en particulier à l’échelle mondiale, prend de l’ampleur, même si, à bien des égards, les pays ont encore des points de vue et des objectifs très divergents sur les questions de réglementation et de développement de l’IA.

Il semble qu’un nouveau cadre pour la diplomatie de l’IA soit en train de prendre forme.

Le décret américain sur l’IA

Jetons d’abord un coup d’œil à la décision du président américain Joe Biden. décret sur l’IA, annoncée le 30 octobre. Washington a longtemps été critiqué pour son manque de législation globale pour réglementer les « grandes entreprises technologiques » sur des questions allant de la protection des données et de la vie privée aux responsabilités des plateformes de médias sociaux. Compte tenu de l’impasse politique à Capitol Hill et au-delà, il est peu probable que cette situation change de sitôt. Cependant, ironiquement, ce mode d’appareil « dirigé par l’exécutif » pourrait permettre aux États-Unis de prendre une certaine avance dans la course pour fixer les orientations des règles pour le déploiement sûr et sécurisé de l’IA dans la société, alors que d’autres pourraient être continuellement pris au dépourvu. dans le bourbier des détails sur la façon de réguler quelque chose d’aussi insaisissable et en constante évolution que l’IA.

L’Union européenne (UE), longtemps considérée comme la référence en matière de réglementation en matière de données, de confidentialité et de technologie, et qui met l’accent sur le respect de principes tels que les droits de l’homme et la protection des consommateurs, a passé plus de deux ans à négocier parmi ses 27 États membres, mais il semblerait qu’il soit toujours du mal à parvenir à un accord final pour sa loi sur l’IA. La réglementation européenne sont illustrés par leur classification en fonction des niveaux de risque associés aux systèmes d’IA et, par conséquent, traités en conséquence selon diverses exigences et conformités, les systèmes classés comme « à haut risque » devant être étroitement contrôlés par la loi.

Si l’approche européenne se concentre sur la législation et la réglementation, l’approche américaine consiste bien plus à établir des règles pour atteindre les mêmes objectifs de sûreté, de sécurité et de fiabilité, en gardant un œil sur le développement visant à maintenir, voire à étendre, le leadership technologique des États-Unis. Parmi les huit actions définies dans le décret, une seule concerne l’établissement de règles – bien que la section la plus longue et la plus substantielle – tandis que sept autres actions concernent davantage les politiques de développement, y compris l’application et l’utilisation de l’IA par le gouvernement fédéral.

La section la plus importante du décret concerne «assurer la sûreté et la sécurité de la technologie de l’IA», dans lequel il appelle à établissement de règles sur les lignes directrices et les normes, et également pour les développeurs de « modèles de fondations potentiels à double usage » de communiquer au gouvernement fédéral des informations sur les activités de formation, la propriété de ces modèles, ainsi que les résultats des tests de sécurité de l’équipe rouge. Le succès de cette section du décret dépendra principalement de la coopération des développeurs commerciaux de modèles d’IA, construits sur la base du « engagements volontaires » reçu des « grandes entreprises d’IA » après une série de réunions et de négociations entre la Maison Blanche et ces entreprises au cours des mois précédents.

Bien que cette action parmi les huit ait retenu le plus d’attention, le reste du décret porte principalement sur stratégies de développement et d’application de l’industrie pour que les États-Unis conservent leur avance. Les actions restantes concernent :

  • Promouvoir l’innovation et la concurrence: notamment la mise en œuvre d’un programme pilote pour la National AI Research Resource (NAIRR), l’amélioration de la protection de la propriété intellectuelle (PI) et la lutte contre le vol de propriété intellectuelle, ainsi que l’avancement de l’utilisation de l’IA pour les soins de santé et le changement climatique, et appelant la Federal Trade Commission (FTC) à envisager d’exercer son pouvoir de réglementation pour garantir davantage la concurrence sur le marché de l’IA, etc.
  • Soutenir les travailleurs: mieux comprendre l’impact de l’IA sur les travailleurs, y compris les opportunités d’emploi, les déplacements ou leur bien-être, afin de développer une main-d’œuvre prête pour l’IA.
  • Faire progresser l’équité et les droits civiques: lutter contre la discrimination illégale potentiellement exacerbée par l’IA, dans des domaines tels que le système de justice pénale, l’application de la loi, les prestations sociales publiques et dans l’économie en général, comme l’embauche, le logement et les transports.
  • Protéger les consommateurs, les patients, les passagers et les étudiants: cette action appelle à « l’incorporation de normes de sûreté, de confidentialité et de sécurité » dans les domaines touchés par l’IA dans les secteurs de la santé et des services sociaux, des transports et de l’éducation, en utilisant une approche sectorielle pour tenter de protéger les personnes contre la fraude ou la discrimination, sans législations.
  • Protéger la vie privée: similaire à la dernière action ci-dessus, cette action ne vise pas à établir des règles pour un régime de réglementation de la confidentialité, mais plutôt simplement à réévaluer l’utilisation des informations disponibles dans le commerce déjà obtenues par les agences gouvernementales et à encourager le développement de technologies améliorant la confidentialité (PET).
  • Faire progresser l’utilisation de l’IA par le gouvernement fédéral: mettre en place des orientations en matière de gestion de l’IA au sein des agences gouvernementales fédérales, notamment en recrutant davantage de data scientists et en désignant un Chief AI Officer dans chaque agence.
  • Renforcer le leadership américain à l’étranger: établir un plan d’engagement mondial sur la promotion et le développement de normes en matière d’IA, et d’autres mesures, formant la base d’une diplomatie américaine en matière d’IA.

Nous devons donc garder à l’esprit ce qu’est le décret pas – c’est-à-dire un règlement, même si on l’appelle souvent ainsi. Bien qu’il ait a établi la base de la surveillance gouvernementale Parmi les projets d’IA les plus avancés, en particulier ceux ayant des implications à double usage, il ne suit pas le modèle de l’UE en matière de licences ou d’autres exigences strictes de conformité. Il s’agit plutôt d’un ensemble de politiques et de directives de développement industriel, susceptibles de constituer les fondations d’un CHIPS et loi scientifique 2.0 – où une future législation concrète prévoira des crédits financiers et d’autres mesures pour renforcer le soutien à la recherche et au développement ou augmenter les quotas de visa pour les talents étrangers.

De plus, comme manifestation de Le soft power américain en matière d’IAle décret vise à continuer de s’appuyer sur le La gouvernance nationale de l’IA aux États-Unis pour influencer le mondeà commencer par les normes et lignes directrices qui seront adoptées par le gouvernement fédéral américain.

Initiative chinoise pour la gouvernance mondiale de l’IA

Il est intéressant de noter quelque chose que beaucoup ont peut-être négligé : moins de deux semaines avant l’annonce du décret américain, la Chine a en fait également annoncé son Initiative mondiale pour la gouvernance de l’IA au Forum de la Ceinture et de la Route à Pékin, où le pays a célébré le 10e anniversaire de son initiative la Ceinture et la Route.

Contrairement au décret américain de près de 20 000 mots, la proclamation chinoise ne contenait qu’environ 1 500 caractères et ne s’en tenait qu’à un certain nombre de principes de haut niveau, tels que le maintien d’une « approche centrée sur les personnes dans le développement de l’IA », l’adhésion au « développement de l’IA ». L’IA pour le bien », « l’équité et la non-discrimination », avec « une large participation et une prise de décision fondée sur le consensus », pour « encourager l’utilisation des technologies d’IA pour prévenir les risques liés à l’IA », etc.

Mais il y a des termes subtils dans l’initiative qui pourraient être plus révélateurs des véritables objectifs de la Chine. Il réitère la nécessité de « respecter la souveraineté nationale des autres pays et de respecter strictement leurs lois ». Il s’oppose à « l’utilisation des technologies de l’IA dans le but de manipuler l’opinion publique, de diffuser de la désinformation, d’intervenir dans les affaires intérieures d’autres pays… et de mettre en péril la souveraineté d’autres États ». Il défend « la représentation et la voix des pays en développement dans la gouvernance mondiale de l’IA », tout en affirmant qu’ils devraient « progressivement établir et améliorer les lois, réglementations et règles pertinentes ».

En effet, les objectifs chinois étaient plus clairement affichés dans un contexte Article de commentaire du Quotidien du Peuple le 19 octobre, critiquant la déclaration commune du G-7 de mai sur la gouvernance de l’IA pour avoir « tracé des lignes basées sur un système de valeurs », créant ainsi un « petit cercle technologique » pour exclure la participation de la Chine à l’établissement de normes technologiques en matière d’IA.

Il est donc quelque peu ironique de voir le Mesures provisoires pour la gestion des services d’intelligence artificielle générative, approuvé conjointement par sept ministères et agences de la République populaire de Chine en juillet 2023. L’article 4 appelle, comme premier et avant tout d’une liste de principes pour ceux qui fournissent des services d’IA générative, à « défendre les valeurs socialistes fondamentales ». En effet, l’approche chinoise pour établir des réglementations sur l’IA n’a pas été « progressive », mais elle est plutôt rapide et décisive, même si elle « améliore » ces lois assez fréquemment. En général, ces lois sont large et vaguefaisant souvent référence à des principes de haut niveau et à des termes généraux, et laissant une énorme marge d’interprétation de la part des autorités gouvernementales.

Du sommet britannique sur l’IA à la diplomatie de l’IA

Étant donné que la course à la réglementation de l’IA a été menée par les États-Unis, la Chine et l’UE, il a été quelque peu surprenant que le gouvernement britannique ait annoncé en juin 2023 qu’il accueillerait le premier sommet mondial sur la sécurité de l’IA. En effet, le Royaume-Uni a jusqu’à présent été à la traîne en matière de réglementation de l’IA, le Premier ministre Rishi Sunak ayant déclaré qu’il ne se « précipiterait pas pour réglementer » l’IA.

Mais c’est l’administration Biden des États-Unis qui a volé la vedette lors de cet événement révolutionnaire, auquel ont participé des dirigeants gouvernementaux, économiques et universitaires de premier plan du monde entier. Les États-Unis ont repris le discours en annonçant leur décret présidentiel deux jours seulement avant le début du sommet, offrant ainsi politiquement à la vice-présidente américaine Kamala Harris une plate-forme pour un « une démonstration brute de la puissance américaine sur la technologie émergente. »

Des progrès ont été réalisés lors du sommet avec la signature du Déclaration de Bletchley, convenu par 27 pays – dont la Chine et les États-Unis – et l’Union européenne. Le communiqué se concentre sur la lutte contre les risques liés à l’IA de pointe pour « identifier les risques de sécurité de l’IA liés à des préoccupations communes, construire une compréhension scientifique et fondée sur des preuves communes » et « élaborer des politiques respectives fondées sur les risques dans tous les pays pour garantir la sécurité ».

Cependant, il ne faut pas oublier que le gouvernement américain, dans l’annonce de son décret sur l’IA, a également proclamé ses efforts pour construire son cadre international en s’engageant avec 20 pays et l’UE, couvrant la plupart des pays participants et signataires de la Déclaration de Bletchley. En ce sens, les États-Unis ont veillé à dominer le discours lors du Sommet sur la sécurité de l’IA, tout en acceptant la participation de la Chine, constituant ainsi la base d’un futur cadre pour la sécurité de l’IA. diplomatie mondiale de l’IA.

En effet, il y a eu appels fréquents pour développer un cadre réglementaire international pour la gouvernance de l’IA par des universitaires et des chefs d’entreprise, comme le plaidoyer en faveur d’une nouvelle agence similaire à l’Agence internationale de l’énergie atomique. L’AI Safety Summit au Royaume-Uni peut constituer un premier pas dans cette direction.

Et il n’est pas surprenant que les remarques du chef de la délégation chinoise – Wu Zhaohui, vice-ministre de la Science et de la Technologie – lors du sommet se soient concentrées sur la « des droits égaux » pour « accéder à l’IA avancée ». Wu protestait indirectement contre les barrières érigées par les États-Unis et leurs alliés au développement de l’IA en Chine, en particulier contre les contrôles à l’exportation des puces et autres technologies de pointe. Mais de tels appels ont été clairement éclipsés par le fait que les pays ont au moins pu se réunir pour partager leurs points de vue sur les risques liés à l’IA à un niveau élevé, même si le discours reste dominé par les États-Unis et leurs alliés.

En ce sens, la participation actuelle de la Chine devrait refléter son désir d’être au moins « dans la salle » et son attitude attentiste à l’égard de cette poussée particulière vers une gouvernance mondiale de l’IA.

A lire également