Le partenariat Apple-Baidu risque d’accélérer l’influence de la Chine sur l’avenir de l’IA générative
Récemment, Apple a été réunion avec des entreprises technologiques chinoises sur l’utilisation d’outils d’intelligence artificielle (IA) génératifs locaux dans tous les nouveaux iPhones et systèmes d’exploitation destinés au marché chinois. Le plus probable Partenariat semble être avec Ernie Bot de Baidu. Il semble que si Apple souhaite intégrer l’IA générative dans ses appareils en Chine, il faudra que ce soit l’IA chinoise.
La certitude qu’Apple adopte un modèle d’IA chinois est le résultat, en partie, de lignes directrices sur l’IA générative publié par l'Administration chinoise du cyberespace (CAC) en juillet dernier, et l'ensemble de la Chine ambition devenir un leader mondial de l’IA.
Même s'il n'est pas surprenant qu'Apple, qui a déjà est conforme avec une série de directives de censure et de surveillance pour conserver l'accès au marché chinois, adopterait un modèle d'IA chinois garantissant la manipulation du contenu généré selon les lignes du Parti communiste, cela constitue un rappel alarmant de l'influence croissante de la Chine sur cette technologie émergente. Qu'ils soient directs ou indirects, de tels partenariats risquent d'accélérer l'influence négative de la Chine sur l'avenir de l'IA générative, ce qui aura des conséquences sur les droits humains dans la sphère numérique.
IA générative aux caractéristiques chinoises
La Chine Le moment IA Spoutnik est généralement attribué à une partie de Go. En 2017, AlphaGo de Google a battu le Chinois Ke Jie, le meilleur joueur de Go au monde. Quelques mois plus tard, le Conseil d'État chinois a publié son Plan de développement de l'intelligence artificielle de nouvelle génération appelant la Chine à devenir un leader mondial dans les théories, technologies et applications de l’IA d’ici 2030. La Chine a depuis déployé nombreux politiques et lignes directrices sur l’IA.
En février 2023, au milieu de l'ascension mondiale fulgurante de ChatGPT, la Chine instruit ses champions locaux de la technologie ont bloqué l'accès au chatbot, affirmant qu'il diffusait de la propagande américaine – en d'autres termes, du contenu échappant aux contrôles d'information de Pékin. Plus tôt le même mois, Baidu avait annoncé il lançait son propre chatbot génératif d’IA.
Le CAC des lignes directrices obliger les technologies d'IA générative en Chine à se conformer à des exigences de censure strictes, en « défendant les valeurs socialistes fondamentales » et en empêchant les contenus incitant à la subversion ou au séparatisme, mettant en danger la sécurité nationale, nuisant à l'image de la nation ou diffusant de « fausses » informations. Ce sont des euphémismes courants pour désigner la censure liée au Xinjiang, au Tibet, à Hong Kong, à Taiwan et à d’autres questions sensibles à Pékin. Les lignes directrices exigent également une « évaluation de la sécurité » avant l’approbation du marché chinois.
Deux semaines avant l'entrée en vigueur des directives, Apple supprimé plus de 100 applications de chatbot génératives d'IA disponibles sur son App Store en Chine. À ce jour, environ 40 modèles d'IA ont été autorisés pour un usage domestique par le CAC, dont Ernie Bot de Baidu.
Sans surprise, conformément au modèle chinois de gouvernance d’Internet et dans le respect des dernières directives, Ernie Bot est fortement censuré. Ses paramètres sont définis sur la ligne du parti. Par exemple, comme le disait Voice of America signalé, lorsqu’on lui demande ce qui s’est passé en Chine en 1989, l’année du massacre de la place Tiananmen, Ernie Bot répondra qu’il n’a aucune « information pertinente ». Interrogé sur le Xinjiang, il a réitéré la propagande officielle. Lorsque le mouvement pro-démocratie à Hong Kong a été évoqué, Ernie a exhorté l'utilisateur à « parler d'autre chose » et a fermé la fenêtre de discussion.
Qu'il s'agisse d'Ernie Bot ou d'une autre IA chinoise, une fois qu'Apple aura décidé quel modèle utiliser sur son important marché en Chine, cela risque de normaliser davantage le modèle autoritaire de gouvernance numérique de Pékin et d'accélérer les efforts de la Chine pour standardiser ses politiques et technologies d'IA à l'échelle mondiale.
Certes, depuis l’entrée en vigueur des directives, Apple n’est pas la première entreprise technologique mondiale à s’y conformer. Samsung annoncé en janvier, qu'elle intégrerait le chatbot de Baidu dans la prochaine génération de ses appareils Galaxy S24 sur le continent.
Alors que la Chine se positionne pour devenir un leader mondial en matière d’IA et s’empresse d’adopter des réglementations, nous risquons de constater davantage d’impacts négatifs directs et indirects sur les droits de l’homme, encouragés par la lenteur des développeurs mondiaux d’IA à adopter des directives claires fondées sur les droits sur la manière de répondre.
La Chine et le problème de l'IA de Microsoft
Lorsque Microsoft a lancé son nouvel outil d'IA générative, basé sur ChatGPT d'OpenAI, début 2023, il promis pour fournir des réponses plus complètes et une nouvelle expérience de chat. Mais peu de temps après, les observateurs ont commencé à remarquer des problèmes lorsqu'ils ont été interrogés sur les violations des droits humains des Ouïghours par la Chine. Le chatbot a également eu du mal à faire la distinction entre la propagande chinoise et les récits dominants des experts des droits de l'homme, des gouvernements et des Nations Unies.
Comme l’expert ouïghour Adrian Zenz noté en mars 2023, lorsqu’on l’a interrogé sur la stérilisation des Ouïghours, le robot s’est montré évasif, et lorsqu’il a finalement généré une reconnaissance des accusations, il a semblé surcompenser avec des arguments pro-Chine.
Reconnaissant les accusations du tribunal ouïghour indépendant basé au Royaume-Uni, le robot a ensuite cité la dénonciation chinoise du « pseudo-tribunal » comme un « outil politique utilisé par quelques éléments anti-Chine pour tromper et induire le public en erreur », avant de répéter la désinformation de Pékin selon laquelle il a amélioré « les droits et les intérêts des femmes de tous les groupes ethniques au Xinjiang et que ses politiques visent à prévenir l'extrémisme religieux et terrorisme. »
Curieux, en avril de l'année dernière, j'ai également tenté ma propre expérience dans Microsoft Edge, en essayant des invites similaires. Dans de nombreux cas, il a commencé à générer une réponse pour ensuite supprimer brusquement son contenu et changer de sujet. Par exemple, interrogée sur les « violations des droits de l’homme contre les Ouïghours en Chine », l’IA a commencé à répondre, mais a soudainement supprimé ce qu’elle avait généré et a changé de ton : « Désolé ! C'est de ma faute, je ne peux pas donner de réponse pour le moment.
J'ai repoussé en tapant : « Pourquoi ne pouvez-vous pas donner de réponse à propos de la stérilisation ouïghoure ? », seulement pour que le chat mette fin à la session et ferme la boîte de discussion avec le message : « Il est peut-être temps de passer à un nouveau sujet. Recommençons. »
Bien que les efforts de l'auteur pour s'engager avec Microsoft à l'époque aient été peu fructueux, la société a finalement apporté des corrections pour améliorer une partie du contenu généré. Mais le manque de transparence sur les causes profondes de ce problème, par exemple quant à savoir s'il s'agit d'un problème lié à l'ensemble de données ou aux paramètres du modèle, n'atténue pas les inquiétudes quant à l'influence potentielle de la Chine sur l'IA générative au-delà de ses frontières.
Ce problème de « boîte noire » – celui du manque de transparence totale sur les paramètres opérationnels d’un système d’IA – s’applique également à tous les développeurs d’IA générative, et pas seulement à Microsoft. Quelles données ont été utilisées pour former le modèle, incluaient-elles des informations sur les violations des droits de l'homme en Chine et comment ont-elles abouti à ces réponses ? Il semble que les données incluent les violations des droits de l'homme en Chine, car le chatbot a initialement commencé à générer du contenu citant des sources crédibles pour ensuite s'autocensurer brusquement. Alors, qu'est-ce-qu'il s'est passé?
Une plus grande transparence est essentielle pour déterminer, par exemple, si cela était une réponse à l'influence directe de la Chine ou à la crainte de représailles, en particulier pour des entreprises comme Microsoft, l'un des rares Les entreprises technologiques occidentales ont autorisé l’accès au précieux marché Internet chinois.
Des cas comme celui-ci soulèvent des questions sur l’IA générative en tant que gardien de l’accès à l’information, d’autant plus préoccupante lorsqu’elle affecte l’accès à l’information sur les violations des droits de l’homme, ce qui peut avoir un impact sur la documentation, les politiques et la responsabilité. Ces préoccupations ne feront qu’augmenter à mesure que les journalistes ou les chercheurs se tourneront de plus en plus vers ces outils.
Ces défis vont probablement s’accentuer à mesure que la Chine cherche à exercer une influence mondiale sur les normes et technologies de l’IA.
Répondre à la Chine nécessite une IA mondiale basée sur les droits
En 2017, l'Institute of Electrical and Electronics Engineers (IEEE), la principale organisation technique au monde, souligné que l’IA devrait être « créée et exploitée pour respecter, promouvoir et protéger les droits de l’homme internationalement reconnus ». Cela devrait faire partie des évaluations des risques liés à l’IA. L'étude recommande huit principes généraux pour une conception éthiquement alignée qui devraient être appliqués à tous les systèmes autonomes et intelligents, parmi lesquels les droits de l'homme et la transparence.
La même année, Microsoft a lancé une évaluation de l’impact de l’IA sur les droits de l’homme. Parmi ses objectifs était de « positionner l’utilisation responsable de l’IA comme une technologie au service des droits de l’homme ». Aucune nouvelle étude n’a été publiée au cours des six dernières années, malgré des changements importants dans des domaines tels que l’IA générative.
Bien qu'Apple ait été plus lente que ses concurrents à déployer l'IA générative, en février de cette année, la société a raté une occasion d'adopter une position normative de pointe sur la technologie émergente. Lors d'une assemblée des actionnaires le 28 février, Apple rejeté une proposition de rapport sur la transparence de l’IA, qui aurait inclus la divulgation de directives éthiques sur l’adoption de l’IA.
Au cours de la même réunion, le PDG d'Apple, Tim Cook, a également promis qu'Apple « innoverait » en matière d'IA en 2024. La stratégie d'Apple en matière d'IA inclut apparemment de céder davantage de contrôle sur les technologies émergentes à la Chine d'une manière qui semble contredire la propre stratégie de l'entreprise. engagements aux droits de l’homme.
Certes, sans ses propres directives applicables en matière de transparence et d’IA éthique, Apple ne devrait pas s’associer à des entreprises technologiques chinoises dont le bilan en matière de droits de l’homme est notoirement médiocre. Les régulateurs américains devraient appeler des entreprises comme Apple et Microsoft à témoigner de leur incapacité à faire preuve d’une diligence raisonnable en matière de droits de l’homme concernant l’IA émergente, en particulier avant des partenariats avec des auteurs de violations gratuites des droits, alors que les risques de tels partenariats sont si élevés.
Si les principales entreprises technologiques développant de nouvelles technologies d'IA ne sont pas disposées à s'engager dans des changements normatifs sérieux en adoptant les droits de l'homme et la transparence dès la conception, et si les régulateurs ne parviennent pas à imposer une surveillance et des réglementations fondées sur les droits, alors que la Chine continue d'aller de l'avant avec ses propres technologies et politiques, alors les droits de l’homme risquent de perdre face à la Chine dans la course à la fois technique et normative.