Nouvelle législation chinoise sur les deepfakes : le reste de l’Asie devrait-il emboîter le pas ?
Le 10 janvier, après une période de consultation publique d’un an, l’Administration du cyberespace de Chine (CAC) a déployé une nouvelle législation pour réglementer les fournisseurs de contenu deepfake. Alors que certains États occidentaux et gouvernements nationaux ont déjà introduit une certaine législation dans cet espace, la nouvelle législation chinoise est beaucoup plus complète et est décrite comme un mécanisme pour préserver la stabilité sociale. Il interdit spécifiquement la production de deepfakes sans le consentement de l’utilisateur et exige une identification spécifique que le contenu a été généré à l’aide de l’intelligence artificielle (IA).
Cette législation sera-t-elle efficace et d’autres pays asiatiques devraient-ils emboîter le pas ?
Que sont les deepfakes ?
Un deepfake est un élément de contenu modifié créé à l’aide de l’apprentissage en profondeur, une forme d’IA appelée IA générative. Il existe une variété de techniques de deepfake, mais l’exemple le plus courant est la vidéo deepfake dans laquelle le visage d’une personne dans la vidéo est échangé avec le visage d’une autre personne. Ces vidéos sont réalisées avec des algorithmes d’intelligence artificielle appelés encodeurs pour créer un contenu réaliste mais faux.
Plusieurs facteurs ont favorisé le développement et l’adoption des deepfakes à l’échelle mondiale. La technologie nécessaire – en particulier, les algorithmes et modèles d’IA, les ensembles de données et la puissance de calcul nécessaires pour créer des deepfakes – est facilement disponible aujourd’hui. De plus, il est relativement simple de créer des vidéos deepfake en utilisant des applications et des plateformes facilement disponibles qui génèrent des deepfakes en tant que service. Une étude rapide des applications disponibles dans le commerce (gratuites et payantes) montre plusieurs façons de combiner des images/vidéos de personnalités connues et du contenu du créateur de deepfake pour créer des médias qui, à première vue, semblent authentiques. Des experts indépendants sont disponibles pour aider à créer des deepfakes de meilleure qualité afin d’empêcher la détection. L’avènement des réseaux 5G, qui prennent en charge des bandes passantes plus larges, a en outre facilité la génération et la diffusion de deepfakes.
La technologie Deepfake ne fera que s’améliorer en termes de qualité et d’accessibilité. Cette amélioration est particulièrement inquiétante car les deepfakes peuvent être utilisés à de multiples fins néfastes ou carrément criminelles, telles que l’ingénierie sociale, les attaques de désinformation automatisées, le vol d’identité, la fraude financière, les escroqueries et les canulars, la fausse pornographie de célébrités et la manipulation électorale.
Législation Deepfake aux États-Unis et en Europe
Plusieurs États américains ont adopté des lois interdisant les deepfakes, mais uniquement en relation spécifique avec la diffusion de deepfakes sur les élections politiques ou la pornographie. Les réglementations concernant les deepfakes dans d’autres secteurs ne sont pas couvertes – par exemple, la production de deepfakes utilisés à des fins d’ingénierie sociale n’est pas actuellement interdite.
La législation adoptée aux États-Unis ne s’applique également qu’à certains États, et non à l’ensemble du pays. Si le créateur du contenu deepfake ne relève pas de la juridiction de l’État concerné, la législation est inapplicable, laissant les victimes de deepfakes pornographiques qui auraient pu être humiliées ou manipulées sans possibilité de recours.
Aux États-Unis, il y a eu des voix dissidentes, comme l’Electronic Frontier Foundation (EFF), qui s’inquiète des implications d’une législation deepfake plus stricte sur la liberté de parole et d’expression. Ils soutiennent que la législation actuelle qui couvre la diffamation, la fraude et les fausses nouvelles devrait être suffisante pour couvrir les abus commis à l’aide de deepfakes.
Dans l’Union européenne, la Commission européenne a proposé la loi sur l’IA, qui inclut les deepfakes dans son champ d’application dans une première tentative pour les réglementer. La loi n’a pas encore été adoptée car, entre autres raisons, il y a une certaine appréhension quant à la stratégie suggérée. L’appréhension tourne autour des difficultés à définir les deepfakes et quelle partie doit être réglementée. La loi sur l’IA est actuellement en cours de discussion au Parlement européen et au Conseil de l’Europe.
En fait, la législation couvrant les deepfakes est loin d’être largement adoptée, car de nombreux pays se demandent encore comment réglementer au mieux les deepfakes, voire pas du tout.
Réglementation de la technologie de synthèse profonde en Chine
Les nouvelles réglementations chinoises, appelées Deep Synthesis Provisions, régissent la technologie et les services de synthèse profonde (ou deepfake), y compris le texte, les images, l’audio et la vidéo produits à l’aide de modèles basés sur l’IA. Ces nouvelles réglementations ne sont guère surprenantes compte tenu de la longue tradition chinoise de tentatives de maintien d’un contrôle strict sur Internet.
Le CAC décrit la réglementation comme nécessaire parce que la technologie de synthèse profonde « a été utilisée par des personnes sans scrupules pour produire, copier, publier et diffuser des informations illégales et préjudiciables, pour calomnier et déprécier la réputation et l’honneur d’autrui, et pour contrefaire l’identité d’autrui. ” Le CAC poursuit en expliquant que « commettre des fraudes, etc., affecte l’ordre de la communication et l’ordre social, porte atteinte aux droits et intérêts légitimes du peuple et met en danger la sécurité nationale et la stabilité sociale ».
Deux catégories d’entités doivent respecter les dispositions : les fournisseurs de plateformes qui fournissent des services de génération de contenu et les utilisateurs finaux qui utilisent ces services. En vertu de ces nouvelles réglementations chinoises, tout contenu créé à l’aide d’un système d’IA doit être clairement étiqueté avec un filigrane, c’est-à-dire un texte ou une image superposé visuellement sur la vidéo indiquant que le contenu a été modifié. Les fournisseurs de services de génération de contenu doivent s’engager à ne pas traiter les informations personnelles et à respecter d’autres règles telles que l’évaluation et la vérification des algorithmes d’IA déployés, l’authentification des utilisateurs (pour permettre la vérification des créateurs des vidéos) et la mise en place de mécanismes de rétroaction pour les consommateurs de contenu. .
D’autres pays d’Asie devraient-ils envisager des réglementations similaires ?
La législation actuelle dans les pays asiatiques est-elle suffisante pour lutter contre les menaces potentielles des faux contenus créés par l’IA ? Singapour, par exemple, dispose déjà de la loi sur la protection contre les mensonges et la manipulation en ligne (POFMA), dont la fonction principale est de contrer les fausses déclarations de fait communiquées à Singapour via Internet. Cette législation dissuaderait l’utilisation de vidéos deepfake dans la manipulation électorale, par exemple. Plusieurs pays asiatiques disposent déjà d’une législation sur la protection des données personnelles, comme le Personal Data Protection Act (PDPA) de Singapour, qui régit la collecte, l’utilisation et la divulgation des données personnelles afin d’empêcher leur utilisation abusive.
Il existe également des lois pénales contre l’usurpation d’identité de fonctionnaires et l’usurpation d’identité par tricherie. Ces lois peuvent aider à dissuader la propagation de deepfakes par des criminels ayant l’intention de commettre une fraude, par exemple. De même, la loi chinoise sur la cybersécurité et les règles de mise en œuvre détaillées de la loi sur le contre-espionnage contiennent des dispositions pour lutter contre la publication ou la diffusion de deepfakes.
Ces textes législatifs ne peuvent cependant pas contrer la production de contenus manipulés. Ces lois n’entrent en vigueur que lorsque le deepfake est distribué sur Internet.
Malgré les appréhensions concernant le fait que la législation deepfake pourrait être utilisée à mauvais escient pour entraver la liberté d’expression, il semble y avoir un réel besoin de pouvoir identifier et étiqueter le contenu généré par l’apprentissage en profondeur en tant que tel. Cela garantirait que les consommateurs de ce contenu soient informés que le contenu a été créé artificiellement et qu’ils ne sont pas trompés en leur faisant croire qu’il est réel. Cela permettrait une utilisation sûre des deepfakes dans la comédie et la satire, par exemple, tout en évitant, espérons-le, la fraude, la rumeur et la désinformation.
À la lumière de cela, quelles sont les alternatives et options possibles ?
Le moyen le plus évident mais le plus dur serait d’interdire complètement les deepfakes. Cependant, cela ne serait ni faisable ni judicieux. Des pays comme Singapour ont des frontières de données poreuses, de sorte que des données telles que les deepfakes pourraient circuler librement de l’étranger, ce qui rend une telle interdiction difficile à appliquer. En outre, il existe de nombreux cas d’utilisation dans le monde (y compris en Chine) où les deepfakes peuvent être utilisés de manière positive (comme aider les personnes handicapées physiques), et l’interdiction des deepfakes entraverait de nombreuses opportunités.
Une autre voie est le déploiement de faux détecteurs profonds. Intel, par exemple, a créé un détecteur (FakeCatcher) qui, selon eux, peut analyser les vidéos pour détecter si elles sont authentiques ou fausses.
Comme les plateformes de médias sociaux sont le moyen le plus courant de diffuser du contenu deepfake, la responsabilité pourrait être transférée aux plateformes de médias sociaux pour déployer des détecteurs comme celui d’Intel afin d’identifier les deepfakes et de les marquer comme tels. Cependant, le défi est que les plates-formes de médias sociaux individuelles sont susceptibles d’utiliser leurs propres normes pour détecter, nommer et catégoriser les deepfakes, ce qui pourrait entraîner des incohérences et de la confusion.
De plus, des chercheurs ont montré que ces détecteurs pouvaient parfois être trompés. Une étude a illustré comment les détecteurs pouvaient être vaincus en insérant des entrées contradictoires dans chaque image vidéo. Ces exemples contradictoires « sont des entrées légèrement manipulées qui font que les systèmes d’intelligence artificielle tels que les modèles d’apprentissage automatique font une erreur ».
Les lacunes de toutes les approches ci-dessus sont évidentes. Par conséquent, afin de lutter contre l’inondation possible de vidéos deepfake dans la société avec des conséquences potentiellement désastreuses, une approche large mais cohérente devra être développée. Il serait utile de surveiller la mise en œuvre et l’efficacité réelles de cette nouvelle législation en Chine et les développements autour de la proposition de loi de l’UE sur l’IA. Un cadre de surveillance deepfake plus collaboratif entre diverses plateformes de médias sociaux et agences gouvernementales pourrait être encouragé. Quelle que soit la législation promulguée, la sensibilisation du public aux dangers des deepfakes devrait bientôt commencer.
Étant donné que les technologies d’IA continueront d’évoluer à un rythme fulgurant, les politiques auront toujours du rattrapage à faire. Les pays asiatiques pourraient envisager de commencer par une politique évolutive englobant à la fois des solutions sociales et technologiques, en vue d’évoluer vers une législation supplémentaire qui transcende la technologie et se concentre sur une vue d’ensemble du contenu généré par l’IA, à la fois positif et négatif.