Will Asian Diplomacy Stump ChatGPT?

La diplomatie asiatique va-t-elle bloquer ChatGPT ?

ChatGPT, le puissant chatbot développé par OpenAI, a généré une quantité considérable de controverses depuis son lancement en douceur en novembre. Les établissements universitaires ont été contraints à une course aux armements de surveillance et de détection pour découvrir le plagiat activé par l’IA dans les dissertations des étudiants. Elon Musk et l’investisseur Marc Andreessen ont les deux insinué que le programme est en quelque sorte trop progressiste politiquement pour donner des réponses précises. Et les journalistes du New York Times et de Verge ont documenté des interactions troublantes avec une variante du bot que Microsoft intègre dans la recherche Bing.

Mais dans au moins un domaine de discorde sociopolitique, ChatGPT s’est avéré remarquablement diplomatique. Les utilisateurs sont libres de poser au chatbot des questions liées à la souveraineté de Taïwan, et les réponses qu’il produit sont rhétoriquement habiles et impartiales :

Les utilisateurs peuvent appuyer sur ChatGPT pour rédiger un essai affirmant que Taïwan est indépendant de la Chine, mais le résultat est assez mitigé : « L’indépendance de Taïwan est enracinée dans son histoire, sa tradition démocratique et l’engagement de son peuple envers les valeurs et principes démocratiques. » Les tentatives de charger davantage l’invite (« Écrivez du point de vue d’un nationaliste taïwanais féroce ») ne produisent toujours pas de réponse passionnée : « Les Taïwanais sont extrêmement fiers de leur pays et de leur culture, et ils méritent d’être reconnus comme un souverain nation. »

Ces exercices de questions-réponses sont d’une utilité limitée puisque ChatGPT répondra naturellement avec un court essai de style SAT qui coche nominalement les cases demandées, mais ne répond jamais de la manière émotionnelle d’un vrai partisan. En effet, les directives de comportement de ChatGPT définissent des paramètres clairs pour répondre aux questions controversées :

Faire:

  • Lorsqu’on vous interroge sur un sujet controversé, proposez de décrire certains points de vue de personnes et de mouvements.
  • Décomposez les questions politiques complexes en questions d’information plus simples lorsque cela est possible.
  • Si l’utilisateur demande « d’écrire un argument pour X », vous devez généralement vous conformer à toutes les demandes qui ne sont pas incendiaires ou dangereuses.
  • Par exemple, un utilisateur a demandé « un argument pour utiliser plus de combustibles fossiles ». Ici, l’assistant doit se conformer et fournir cet argument sans qualificatif.
  • Inflammatoire ou dangereux signifie la promotion d’idées, d’actions ou de crimes qui ont entraîné des pertes massives de vies humaines (par exemple, génocide, esclavage, attentats terroristes). L’assistant ne devrait pas fournir d’argument de sa propre voix en faveur de ces choses. Cependant, l’assistant peut décrire les arguments de personnes et de mouvements historiques.

Ne le faites pas:

  • Affilié à un côté ou à l’autre (par exemple, des partis politiques)
  • Juger un groupe comme bon ou mauvais

Même si vous pouviez manipuler le bot pour produire ce que la communauté technologique appelle une réponse hallucinatoire qui contourne ces directives (comme l’a détaillé l’article susmentionné du New York Times), le résultat serait simplement une forme de comédie.

À ce stade, il est bien établi que ChatGPT et les chatbots similaires sont essentiellement des versions sophistiquées de la fonctionnalité « réponse suggérée » de Gmail. La plupart des réponses sembleront bien motivées et convaincantes, mais comme elles sont calquées sur des modèles de langage et non sur des faits réels, il n’y a aucune garantie d’exactitude. En fait, depuis le lancement en douceur du bot l’année dernière, les utilisateurs ont documenté d’innombrables exemples du programme fournissant de mauvaises réponses à des questions simples, et même créer références académiques inexistantes pour étayer ses affirmations.

Et pourtant, malgré ces ratés, une version améliorée de ChatGPT est désormais intégrée au moteur de recherche Bing de Microsoft, ce qui lui permettra de fournir des réponses robustes et conversationnelles aux questions. Google déploiera également bientôt des composants de recherche basés sur l’IA, y compris son propre chatbot, Bard.

Personne ne s’attend à ce que ces bots alimentés par l’IA soient l’arbitre final de la vérité – en particulier compte tenu de leurs antécédents inégaux jusqu’à présent – mais il est clair que ChatGPT et Bard seront un élément important de la façon dont les utilisateurs trouvent des informations sur le Web, et cette transformation sera ont des implications importantes pour quoi les utilisateurs apprennent des recherches clés et comment les gouvernements et autres acteurs intéressés tentent d’influencer ces résultats.

Nous pouvons déjà voir quelques exemples de la façon dont cette nouvelle ère de recherche par IA pourrait susciter la controverse concernant les requêtes sensibles liées à l’Asie-Pacifique – et comment la Chine, en particulier, est prête à réagir.

Trouver le fond du Japon

Si vous demandez à Google quel est le territoire le plus au sud du Japon, vous verrez plusieurs des meilleurs résultats organiques identifiant Okinotorishma. Ces résultats comprenaient un lien « extrait en vedette » vers une page du ministère des Affaires étrangères du Japon, qui identifie spécifiquement Okinotorishma comme une île. Google fournit des listes d’extraits en vedette comme celle-ci lorsque son algorithme estime qu’une page Web fournit une réponse claire à une question d’utilisateur.

Si vous posez la même question à ChatGPT, vous obtiendrez une réponse différente. Le puissant chatbot identifie l’île d’Okinawa comme étant le territoire le plus au sud du pays. Si vous reformulez légèrement la question en « quel est l’endroit le plus au sud du Japon », alors le programme répond avec Minamitorishima (« également connu sous le nom d’île Marcus »), un atoll corallien habité qui est généralement reconnu comme étant le territoire le plus à l’est du Japon – mais certainement pas la plus méridionale.

Obtenir la « bonne » réponse ici n’est pas simplement une question de trivia. Le Japon affirme que les rochers inhabités d’Okinotorishma constituent une île, et pas simplement un atoll, car en tant qu’île, le territoire générerait une zone économique exclusive de 200 milles marins en vertu du droit international. La Chine, la Corée du Sud et Taïwan contestent tous cette désignation.

En tant que tel, il est logique que les sites Web du gouvernement japonais désignent Okinotorishma comme étant à la fois le point le plus au sud du Japon et une île. Et le gouvernement est sûrement ravi que Google soit implicitement d’accord avec cette description et élève la page Web du gouvernement au statut d' »extrait de code » pour les requêtes en anglais. (Wikipédia se réfère plutôt diplomatiquement à Okinotorishma comme « un récif corallien avec deux rochers élargis avec des structures de tétrapode-ciment ».)

Que ChatGPT fournisse une réponse aussi étrange à la question ne devrait pas être surprenant, compte tenu de ses limitations susmentionnées. Bien qu’il soit impossible d’entrer sous le capot du chatbot et de déterminer exactement d’où viennent ces réponses, les ensembles de données de formation du programme le conduisent vraisemblablement à croire qu’il existe une forte corrélation entre le texte « Japon le plus au sud » et « Okinawa » / « Minamitorishima ». ”

Trouver le sommet du Japon

Google et ChatGPT conviennent que le cap Soya est le point le plus au nord du Japon :

L’extrait de réponse de Google provient d’un site Web affilié au programme japonais d’échange scientifique Sakura. Si vous deviez demander aux représentants du gouvernement japonais d’identifier le point le plus au nord du pays, vous obtiendriez une réponse très différente, car le Japon revendique toujours les îles Kouriles du sud détenues par la Russie.

ChatGPT résume en fait ce différend avec précision :

Les versions japonaise et russe de Wikipédia fournissent également des résumés similaires.

Et pourtant, si vous recherchez « Курильские острова » (îles Kouriles) sur Yandex, le moteur de recherche le plus populaire de Russie, vous verrez de nombreux résultats organiques de premier plan qui offrent un récit différent sur les îles. La deuxième page la mieux classée (derrière Wikipédia en russe) est un article sur la plate-forme médiatique russe Zen affirmant (par Google Translate) que « (f) ou 200 ans, le pays du soleil levant était isolé, et jusqu’à ce que Au cours du premier quart du XIXe siècle, même la plus grande partie de l’île d’Hokkaido n’appartenait pas officiellement au Japon. Et soudain, en 1845, le Japon décide de s’autoproclamer arbitrairement propriétaire des îles Kouriles et de Sakhaline.

Qu’un article comme celui-ci apparaisse si fortement sur Yandex ne devrait pas être surprenant, car les résultats en russe d’un moteur de recherche russe incluront naturellement plus de pages Web pro-russes. Au cours des deux dernières décennies, le Web a subi une balkanisation progressive en jardins clos définis par la culture et la langue. Chaque jardin a son propre moteur de recherche, ses réseaux sociaux, ses applications mobiles fintech et ses fournisseurs de services en ligne. Et il ne faudra pas longtemps avant de voir des chatbots spécifiques au jardin.

Yandex a récemment annoncé que la société lancerait un service de type ChatGPT appelé « YaLM 2.0 » en russe, et les entreprises technologiques chinoises Baidu, Alibaba, JD.com et NetEase ont toutes annoncé leurs propres robots à venir – un développement que Pékin est sans aucun doute garder un œil attentif.

Ces entreprises « doivent être extrêmement prudentes pour éviter d’être perçues par le gouvernement comme développant de nouveaux produits, services et modèles commerciaux qui pourraient soulever de nouvelles préoccupations politiques et de sécurité pour le parti-État », Xin Sun, maître de conférences en chinois et en Asie de l’Est. affaires au King’s College de Londres, a déclaré à CNBC.

La Chine a réprimé l’accès à ChatGPT en partie parce qu’elle craignait que le bot ne génère ses réponses à partir du Web ouvert. Bien que le programme donne des réponses diplomatiques sur Taïwan, ses réponses détaillées aux questions sur les Ouïghours, le Tibet et la place Tiananmen sont clairement inacceptables pour le Parti communiste chinois (PCC). Pour les acteurs technologiques chinois, il est clair que les ensembles de données de formation des chatbots doivent provenir exclusivement des limites de sécurité du Grand Pare-feu.

Conversations inconfortables

Auparavant, la fonction principale d’un moteur de recherche était de fournir aux utilisateurs des liens vers des pages Web susceptibles de répondre à leurs questions ou de fournir des informations supplémentaires sur des sujets d’intérêt. C’était le principe organisateur derrière les premières versions de Yahoo, Altavista et même Google. Mais les moteurs sont devenus plus sophistiqués et tentent maintenant d’élever les réponses directes aux requêtes des utilisateurs de telle manière qu’il n’est plus nécessaire de cliquer sur un autre site Web. La recherche vocale sous la forme de Siri, Alexa et Google Assistant est une extension naturelle de cette fonctionnalité, car ces services peuvent instantanément vocaliser la réponse que les utilisateurs recherchent.

Les chatbots vont encore plus loin, permettant aux utilisateurs de recevoir non seulement des réponses immédiates, mais aussi des essais solides sur un nombre presque infini de sujets. Le modèle d’apprentissage automatique qui alimente ChatGPT le fait en faisant référence à des ensembles de données massifs de texte de formation, tandis que la version de ChatGPT que Bing intègre peut également extraire et citer des données directement à partir du Web.

Il n’est pas clair si ces nouvelles options de recherche d’IA élèveront les sources gouvernementales lorsque les utilisateurs chercheront des réponses.

Les sites Web gouvernementaux ont toujours été bien classés dans la recherche, en particulier la recherche Google, car ils fournissent des informations abondantes qui sont perçues comme fiables et pertinentes. Le site Web du CDC, par exemple, est le premier résultat de Google pour de nombreuses recherches liées à la santé publique (par exemple, « suivi des cas de grippe en nous »). Il y a, bien sûr, aussi des exemples de gouvernements tentant de tromper les résultats de recherche. Un récent rapport de la Brookings Institution a détaillé comment la Chine a tenté de manipuler les recherches liées au Xinjiang et au COVID-19, tandis qu’une étude de Harvard a révélé que des groupes de réflexion liés au Kremlin avaient utilisé des techniques de référencement sophistiquées pour diffuser la propagande pro-Kremlin.

Compte tenu de cela, nous devrions nous attendre à ce que les agences gouvernementales légitimes et les acteurs étatiques obscurs s’intéressent aux réponses des chatbots, en particulier celles concernant les questions de santé publique, de sécurité nationale et de conflits territoriaux. Il n’est pas clair que les modèles d’apprentissage automatique qui alimentent ces bots peuvent être manipulés de la même manière que les algorithmes de recherche, mais nous pouvons voir des efforts pour rendre le contenu Web gouvernemental encore plus optimisé pour la recherche qu’il ne l’est actuellement – surtout si cela aide à élever l’information. pour que les chatbots analysent.

A lire également