L’Asie suivra-t-elle la loi sur l’intelligence artificielle de l’UE ou tracera-t-elle sa propre voie ?
Parvenir à un consensus sur une question juridique au sein de la communauté internationale n’est rien de moins qu’une tâche monumentale, c’est un euphémisme. Mais le règlement général sur la protection des données (RGPD) de l’Union européenne en 2018 a réussi à défier les probabilités, résonnant avec des nations du monde entier. Son objectif – harmoniser et renforcer la confidentialité des données à travers l’Europe – a lancé une course mondiale pour développer des législations locales sur la confidentialité des données. Rien qu’en Asie, un rapport a suggéré que, d’ici 2023, il y aurait une augmentation de 25 % des lois régionales sur la protection de la vie privée par rapport à 2021. La plupart, sinon toutes, sont en tout ou en partie inspirées du RGPD.
L’ascension fulgurante des outils d’IA comme ChatGPT a déclenché une nouvelle phase d’excitation mondiale. En guise de contre-mesure et dans le cadre d’un effort plus large visant à mettre l’expansion de l’IA sous son contrôle, les législateurs de l’UE ont proposé le deuxième volet avant-gardiste sous la forme de la loi sur l’intelligence artificielle. La loi, qui vient d’être approuvée aujourd’hui par le Parlement européen, serait la première législation au monde axée sur l’IA. Le projet de loi va maintenant faire l’objet de négociations avec le Conseil européen.
Alors que la loi sur l’intelligence artificielle approche de son adoption complète, s’imposera-t-elle comme la référence en matière de réglementation de l’IA de la même manière que le RGPD l’était en matière de confidentialité des données ?
Par rapport à ses pairs asiatiques, Singapour a pris de l’avance en introduisant son modèle de cadre de gouvernance de l’intelligence artificielle en 2019. Les deux principes directeurs du cadre stipulent que les décisions prises par l’IA doivent être explicables, transparentes et équitables, et que les solutions d’IA doivent être » centrée sur l’humain » et conçue pour protéger la sécurité et le bien-être des personnes.
La Chine, un autre mastodonte de l’IA, a également appelé à une plus grande surveillance de l’IA par l’État pour contrer les « tempêtes dangereuses » qui menacent le pays. L’Administration du cyberespace de Chine (CAC) a publié un projet de mesures pour la gestion de l’IA générative en avril de cette année.
Leurs efforts visaient un large éventail d’IA, en particulier l’IA générative, qui a ravi nombre de ses adopteurs occidentaux alors même qu’ils sont pris dans les dents de ses limites flagrantes. Cependant, aucune des deux mesures n’a le même impact que leur homologue de l’UE. La loi AI est incontestablement ambitieuse ; il vise à réglementer l’ensemble du domaine du développement de l’IA et à le placer sous sa responsabilité. Peut-être que la loi était en gestation depuis longtemps avant que le cycle de battage médiatique de l’IA n’occupe le devant de la scène, ce qui a donné aux législateurs suffisamment de temps pour peser les avantages et les inconvénients potentiels.
Adoptant la même philosophie que le RGPD, la loi AI amplifie la piqûre des infractions en tant que formidable dissuasion. Les systèmes d’IA utilisés dans des domaines cruciaux comme l’éducation et l’emploi, qui détiennent le pouvoir de façonner le destin d’un individu, seront soumis à des normes strictes telles qu’une précision et une transparence accrues des données. Le non-respect de ces réglementations peut entraîner des sanctions s’élevant à 30 millions d’euros ou 6 % des bénéfices d’une entreprise, selon le montant le plus élevé.
Certes, au milieu de l’adoption croissante de l’IA en Asie, l’absence d’un cadre réglementaire complet peut conduire à des résultats biaisés et discriminatoires. Mais alors que l’acte proposé fournit un point d’Archimède à d’autres pays qui s’empressent d’imiter, il semble peu probable qu’ils se hâtent d’adopter des lois sur l’IA de la même manière que l’UE.
D’une part, même les entreprises technologiques et les spécialistes de l’IA ont du mal à déterminer ce que l’avenir leur réserve. Prenons l’IA générative comme exemple. En Chine, l’industrie technologique reste divisée sur l’opportunité d’adopter pleinement cette technologie émergente. Alors que certains dirigeants, comme le PDG de Baidu, Robin Li, et le PDG d’Alibaba, Daniel Zhang, défendent avec enthousiasme son avancement, d’autres, comme le PDG de Tencent, Pony Ma, et le PDG de Sohu, Charles Zhang, appellent à la prudence contre l’adoption hâtive au milieu du battage médiatique qui l’entoure. Au Japon, des entreprises telles que SoftBank et Hitachi mettent en œuvre et intègrent de manière proactive une technologie d’IA de pointe dans leurs pratiques commerciales. Contrairement à la confidentialité des données, dont l’importance est universellement reconnue, il n’y a pas de large consensus sur l’opportunité ou la manière d’attacher le Far West de l’IA.
Après tout, naviguer dans le domaine de l’IA est un exercice insaisissable. L’IA générative, la sensation de tourbillon actuelle, se transforme comme un caméléon, car elle s’adapte à des tâches telles que l’écriture, la recherche, l’écriture de chansons, le codage ou la composition de discours. Ses tentacules fonctionnelles étendent leur portée dans tous les coins et recoins de l’économie. Tenter de corraliser son potentiel illimité risque d’étouffer son expansion créative.
Chaque nouvelle percée de l’IA envoie le monde tourner dans une valse vertigineuse, pour ensuite s’éveiller aux ombres cachées de ravages potentiels. Il ne faut pas chercher bien loin un exemple. Ce mois-ci, un avocat américain a été découvert en train de s’appuyer sur une recherche concoctée par ChatGPT, laissant le public consterné et abasourdi. De plus, l’IA générative, bien qu’importante, ne représente qu’un fragment de la vaste mosaïque de l’IA. Dans ce paysage tentaculaire, le terrain de jeu s’étend bien au-delà de l’horizon, amplifiant les complexités de l’élaboration de réglementations globales.
Après tout, la mesure dans laquelle une nation adopte une approche à plusieurs niveaux basée sur les risques, comme la loi sur l’IA, dépend de son appétit pour les risques. Par exemple, la loi classe toute surveillance biométrique à distance comme un risque inacceptable. Un même levier juridique ne sera pas nécessairement interprété de la même manière par certains pays asiatiques. En fait, lors de la récente réunion des ministres du numérique et de la technologie du G-7 en avril, le gouvernement japonais a exprimé une préférence pour des directives plus souples que des lois réglementaires strictes, car ces dernières ne peuvent pas suivre le rythme des changements technologiques. Bien qu’elle ne soit pas concluante, cette position signale un léger rejet de la direction actuelle prise par l’UE pour le moment.
D’un point de vue strictement juridique, l’approche de l’UE en matière de réglementation de l’IA pourrait ne pas s’aligner sur les pays asiatiques, le concept de responsabilité du fait des produits étant un maillon fragile dans la chaîne complexe de l’IA. La flexibilité de l’IA et la complexité de ses produits rendent difficile la détermination de la responsabilité, créant un nœud gordien que les décideurs doivent démêler.
Il n’est donc pas étonnant que, bien que les dirigeants du G-7 aient convenu d’établir des normes d’IA transparentes et équitables dans le cadre du soi-disant «processus d’IA d’Hiroshima», il subsistait des préoccupations tenaces. Chaque nation a des opinions uniques sur la réglementation de l’IA et tient à poursuivre son propre programme.
Le potentiel apparemment illimité de l’IA s’accompagne inévitablement d’un côté sombre, avec des dangers potentiels qui se cachent sous la surface. Les éléments communs à considérer avant de lancer de telles lois incluraient probablement la négociation d’exclusions acceptables tout en développant des cadres réglementaires qui répondent également aux besoins locaux et aux mœurs culturelles. La résistance des entreprises technologiques ayant des intérêts acquis pourrait se profiler à l’horizon, ce qui rendra difficile la sécurisation de leur adhésion.
Il y a généralement un compromis entre l’exhaustivité d’une loi et son caractère pratique. L’efficacité de la loi sur l’IA ne peut être identifiée qu’au fil du temps. En tant que tel, nous pourrions ne pas voir des pays comme la Chine et le Japon se précipiter pour suivre les traces de la loi, bien que la Corée du Sud puisse battre l’UE au poing et mettre en place son premier statut complet lié à l’IA cette année. Dans l’intervalle, la plupart des pays asiatiques pourraient s’appuyer sur une approche attrape-attrape pour trouver de l’ordre dans cette réalité chaotique. Les régimes réglementaires asiatiques pourraient ne pas émerger en rafales mais en cycles progressifs semblables à l’approche adoptée par Singapour.
Alors que la technologie de l’IA continue de se frayer un chemin dans diverses industries en Asie, il est facile de se laisser emporter par l’excitation de l’innovation et de négliger les conséquences négatives potentielles. Faire référence à la loi sur l’IA pour contextualiser et résoudre les problèmes spécifiques à l’Asie pourrait être utile pour garantir que l’impact net de l’utilisation de l’IA reste positif. Mais jusqu’à ce que les pionniers asiatiques de l’IA acquièrent un achat sur les limites et le potentiel de cet outil puissant, l’émergence d’une loi sur l’intelligence artificielle en miroir dans la région pourrait encore attendre à l’horizon.