Les opportunités et les risques trouvés dans le plan d'action de l'IA de Trump
Le président Donald Trump a publié mercredi son nouveau plan d'action de l'intelligence artificielle (IA) pour coïncider avec son sommet de la «victoire de l'IA» à Washington, DC mercredi. Le document de vingt-huit pages contient plus de quatre-vingt-dix recommandations politiques qui, selon l'administration, élargiront la vente mondiale de la technologie de l'IA américaine, accélèrent la construction de centres de données et réduiront les «formalités administratives» qui se sont révélées un obstacle à l'industrie de l'IA.
Comme Trump l'a dit dans son discours d'ouverture, le plan aidera les États-Unis à «gagner à l'IA, tout en démantant les obstacles réglementaires».
Mais l'administration peut-elle provoquer la mise à l'échelle rapide de l'IA à l'intérieur et à l'extérieur du gouvernement sans nouveau financement, en planifiant davantage les évaluations des risques, les mauvais acteurs et d'autres problèmes? Certains experts croient également que d'autres politiques de la Maison Blanche pourraient faire dérailler certains des efforts proposés par l'IA de Trump.
Après le sommet et l'adresse du président, CFR a convoqué sept de ses experts pour examiner le plan d'action et détailler les opportunités et les risques qu'ils prévoient.
Le plan de Trump pourrait ouvrir une boîte de Pandora Ai
Sous le président Biden, la politique de l'IA du gouvernement américain a équilibré trois objectifs: maintenir une avance sur la Chine en termes de développement du modèle frontalier; promouvoir l'adoption rapide de l'IA tout au long de l'économie, renforçant ainsi la croissance; et atténuer les risques, à la fois de l'abus de l'IA par de mauvais acteurs et des systèmes d'IA qui sont mal alignés d'intérêts humains. Sous le président Trump, les deux premiers objectifs sont promus aux dépens du troisième.
Le signe le plus clair sortant des nouveaux décrets de l'administration Trump est la position des modèles de fondation open-source et de poids ouvert. Ces types de modèles peuvent être téléchargés et adaptés librement par n'importe qui, ce qui les rend populaires auprès des universitaires, des entrepreneurs et de quiconque souhaite créer des applications IA à moindre coût. L'inconvénient est que les modèles ouverts – tout en alimentant la diffusion de l'IA à travers l'économie – augmentent également les risques. Les mauvais acteurs pourraient les utiliser pour de mauvaises fins, de la production de masse de faux de la construction d'armes.
L'administration Biden avait également esquivé le défi de serrer les modèles ouverts, laissant entendre qu'une future administration pourrait avoir à revisiter la question. L'administration Trump a évidemment décidé de s'en tenir à l'ouverture. Il accepte le risque supplémentaire en échange d'une adoption d'IA plus rapide et d'une capacité plus forte à rivaliser avec la Chine, qui embrasse également des modèles ouverts.
Une première étape importante qui soulève des questions essentielles
Le plan d'action de l'IA souligne à juste titre l'importance de permettre au secteur privé de défendre activement les innovations de l'IA contre les risques de sécurité, en particulier des cyber-acteurs malveillants et des menaces d'initiés. Investir des milliards de dollars dans les infrastructures d'IA et le resserrement des contrôles d'exportation sur les puces avancées ne feront pas grand-chose de bien si Pékin ou d'autres concurrents peuvent simplement voler les derniers modèles formés, en récoltant les avantages des investissements américains tout en éludant des restrictions. Le plan offre peu de détails sur la façon dont l'administration a l'intention de faire avancer cet objectif, mais il existe de nombreuses mesures qu'il pourrait considérer, y compris des mécanismes de partage de renseignements sur les menaces robustes et des incitations pour un développement sécurisé.
Le plan souligne également admirablement l'importance d'évaluer les risques de sécurité nationale des modèles frontaliers, ce qui est une étape essentielle pour les soulager. Mais on ne sait pas ce qui se passera lorsqu'une évaluation constate qu'un modèle a franchi un seuil de capacité ou de risque, ce qui suggère qu'il peut provoquer des dommages réels à grande échelle. Dans leurs cadres de sécurité, les grandes entreprises frontalières se sont engagées à faire une pause déploiement en l'absence d'atténuations suffisantes, mais il n'y a aucune compréhension partagée de ce que ces atténuations devraient impliquer ou qui décide de ce qui est considéré comme suffisant. Ce problème pourrait bientôt devenir urgent pour la communauté des politiques de sécurité nationale, il est donc important de commencer à lutter contre lui maintenant.
Ce plan d'action de l'IA est-il durable?
Le plan d'action Trump AI est un conte de deux impulsions au sein de l'administration. De grandes sections du plan d'action – notamment l'accent mis sur les modèles open-source et ouverts, de nombreux projets pilotes, la promotion de l'alphabétisation de l'IA dans la main-d'œuvre, l'évaluation des risques de sécurité nationale dans les modèles frontaliers et l'investissement dans la biosécurité – sont des développements positifs cohérents avec une approche bipartite en cours de la Biosécurité dans l'IA. Cependant, il existe également un risque que de nombreuses actions demandées ne conduisent pas à suivre en raison d'un manque de financement spécifié ou de macro tension potentielle avec d'autres priorités de l'administration Trump, telles que la réduction des infrastructures de recherche scientifique et technologique à l'intérieur et à l'extérieur du gouvernement.
Pour le ministère de la Défense, la recommandation la plus importante est de créer un terrain d'essai virtuel d'IA et de systèmes autonomes, qui est essentiel pour le type de tests et d'évaluations de systèmes d'IA nécessaire pour créer une confiance de confiance et une adoption d'échelle. Avec cela et les autres recommandations pour le Pentagone, il sera essentiel de voir s'il y aura une suite dans les ressources et la priorisation organisationnelle.
Le document reflète également les tensions en cours que l'administration se déroule toujours concernant la politique américaine de l'IA à l'étranger. Par exemple, l'administration a pour objectif de lutter contre l'influence chinoise dans les organisations internationales qui influencent les conférences de l'IA. Mais cela obligera l'administration à financer et à soutenir le personnel de faire ce travail au sein des institutions internationales, telles que les Nations Unies et l'Union internationale des télécommunications, qui est en contradiction avec ses politiques.
Le plan de l'IA de Trump saute les progrès et crache la diplomatie
«Gagner» toute course d'IA nécessite un soutien rapide et coordonné pour l'innovation de l'IA, l'infrastructure et l'engagement international. Le plan d'action de l'IA établit des priorités importantes et constructives en s'engageant à accroître la capacité de production d'IA intérieure, en soutenant au moins une évaluation systématique des risques de modèle frontalière, en élargissant l'accès des Américains au pouvoir de calcul en élargissant la ressource nationale de recherche américaine de l'intelligence artificielle, en accélérant les tests de modèles à travers les centres d'excellence régionaux de l'IA régionaux et en préparant les travailleurs américains pour la prochaine transition technologique.
Il propose également des incitations au gouvernement fédéral à améliorer et à accélérer les offres d'IA de «pile complète» de l'Amérique. Cela pourrait s'avérer une proposition controversée, mais elle positionnera les sociétés d'IA américaines pour concurrencer plus efficacement les produits hautement subventionnés de la Chine.
Malheureusement, la stratégie internationale du plan d'action de l'IA est minée par la rhétorique dogmatique et les impulsions concurrentes. Même des alliés et des partenaires de longue date sont considérés comme de simples marchés à capturer dans l'intérêt de la suprématie mondiale américaine. «Leverag (ing) La position américaine dans les organismes diplomatiques et standard internationaux» sera compliqué par les récentes licenciements du Département d'État qui ciblaient de manière disproportionnée les individus et les bureaux ayant une expertise technologique, ainsi que par la décision des États-Unis de se retirer des principales institutions multilatérales comme l'Organisation mondiale de la santé et l'UNESCO, qui cherchent à façonner l'évolution de l'IA. Les principaux marchés comme l'Inde et l'Union européenne s'efforcent de réduire leur dépendance à l'égard de toute pile de technologies extérieures, que ce soit Beijing ou Washington, compliquant «l'alliance mondiale» que le plan cherche à construire.
En fin de compte, en ce qui concerne l'engagement mondial, le plan chante une mélodie à somme nulle. Bien qu'un tel cadrage puisse résonner au niveau national, il sera discordant à l'étranger.
L'IA pourrait offrir des prestations de sécurité nationale et risquer un préjudice majeur
Il est vrai que l'IA a le potentiel de transformer les opérations de lutte contre la guerre et de back-office à travers l'armée américaine. Lorsque l'IA peut rendre les processus et le partage d'informations plus efficaces, les experts doivent tester, former et mettre en œuvre. Dans les armes, le traitement des données plus rapide et la délégation des tâches à l'IA pourraient renforcer la résilience. Des systèmes plus non réalisés pourraient diversifier des options pour les dirigeants en crise.
Mais il y a aussi des domaines où l'adoption agressive de l'IA ne servirait pas les intérêts de la défense nationale ou de la sécurité. Le dépôt de l'IA devrait être un avertissement précoce stratégique, des fonctions d'analyse de l'intelligence qualitative et partout où les défis de la «boîte noire» et la fragilité inhérente à toutes les IA ne pouvaient pas être surmontés ou pourraient avoir des conséquences catastrophiques. L'IA au ministère de la Défense devrait rendre les Américains plus sûrs, pas moins.
Enfin, pour prendre de l'avance sur la façon dont l'IA pourrait propulser le développement d'armes de destruction massive (chimique, biologique, radiologique ou nucléaire), l'administration devra aller au-delà du partenariat avec les entreprises d'IA frontalières pour évaluer les systèmes. Les politiques devraient commencer par restreindre les moyens les plus probables des modèles d'apprentissage linguistique (LLM) pourraient partager des informations dangereuses ou nuisibles.
Le plan d'action de l'IA de Trump est en contradiction avec la politique de Trump
Le plan d'action de l'IA s'ouvre en déclarant que «l'Amérique est dans une race pour atteindre la domination mondiale de l'intelligence artificielle (IA)» avec la Chine. Il préconise de refuser l'accès aux adversaires au calcul américain, des contrôles d'exportation plus forts sur l'équipement de fabrication de semi-conducteurs et des étapes pour garantir que les puces avancées ne se retrouvent pas en Chine, y compris les caractéristiques de vérification de l'emplacement.
Mais le plan est en tension avec la politique. L'administration Trump a inversé son interdiction des ventes d'une puce américaine sophistiquée («H20» de Nvidia) en Chine, qui alimentera les modèles de la Chine. Les partisans du renversement disent que seules les ventes continues empêcheront la Chine de remplacer les puces Nvidia par des puces Huawei. Les adversaires disent que le risque est surestimé, les puces Huawei ne sont pas suffisantes et que la meilleure façon d'assurer la dépendance à la technologie américaine est d'exporter l'ensemble de la pile d'IA (puces américaines, cloud américain, centres de données américains, etc.) et non des pièces que les adversaires peuvent utiliser pour construire leur propre pile.
Peu importe où on tombe dans le débat, la question est maintenant de savoir si cette décision est le signe d'une politique plus permissive ou est plutôt une action singulière. Le nouveau plan d'action de l'IA, malgré ses trente pages et ses commentaires publics d'accompagnement du président Trump et du vice-président JD Vance, ne résout pas encore cette question.
Un tir à travers l'arc numérique de la Chine
Le plan d'action de l'IA vise clairement la route de la soie numérique chinoise, l'initiative signature du leader chinois Xi Jinping pour câbler le monde et gagner l'avenir. L'une des recommandations internationales les plus prometteuses du plan est la proposition visant à établir un programme pour aider à exporter la pile complète de la technologie américaine des États-Unis – les logiciels, les logiciels, la formation et, surtout, le financement – pour les partenaires à l'étranger. Malgré les problèmes de sécurité, les fournisseurs de technologies chinoises, en particulier Huawei, ont continué à réussir sur les marchés étrangers en raison de leur capacité à fournir ce package complet.
Cette partie du plan de l'IA de Trump pourrait être encore plus forte si elle rationalise le processus interinstitutions et se concentre plus étroitement sur les marchés émergents. La longue liste des agences américaines mentionnées dans la recommandation est susceptible de rendre une idée autrement bonne et difficile à mettre en œuvre. Une plus grande concentration géographique aiderait également.
C'est des marchés émergents où les entreprises technologiques chinoises ont fait les percées les plus profondes, et c'est de plus petites économies en développement en particulier où l'option chinoise est parfois la seule sur la table. L'élargissement de la disponibilité de la technologie américaine abordable sur les marchés émergents serait une victoire majeure pour les États-Unis, commercialement et stratégiquement.
