AI dans le gouvernement fédéral: une réalité fragmentée
Les États-Unis visent la direction de l'IA, un objectif souligné par les directives présidentielles des administrations Trump et Biden. L’ordre exécutif du président du président Trump « supprimant les obstacles au leadership américain dans l’intelligence artificielle » et le décret exécutif du président Biden 14110, qui a ordonné à tous les services gouvernementaux de « développer des stratégies d’IA et de poursuivre les cas d’utilisation d’IA à fort impact », soulignent une reconnaissance bipartite du potentiel transformateur de l’IA. Ces directives se sont accompagnées d'investissements financiers importants, les agences fédérales dépensant 831 millions de dollars en contrats logiciels liés à l'IA en 2023 seulement – un chiffre prêt à une croissance substantielle.
Malgré ce mandat et l'investissement clair, la mise en œuvre par le gouvernement fédéral de l'IA reste un travail précoce en cours. Notre examen des cas d'utilisation du ministère de la Justice (DOJ) met en évidence une stratégie d'IA fragmentée qui peut entraîner des inefficacités et entraver les flux d'information. S'attaquer à cette fragmentation présente une opportunité de tirer parti des avantages que l'IA promet: amélioration de l'efficacité, analyse accélérée et prise de décision améliorée pour la fonction publique et la sécurité nationale.
Cas d'utilisation fédéraux
À la fin de 2024, le référentiel de cas d'utilisation de l'IA fédéral a énuméré plus de 2 100 «cas d'utilisation» supposés dans les principales entités gouvernementales. Cependant, ce chiffre est probablement gonflé car les systèmes d'IA individuels sont souvent confondus avec les cas d'utilisation réels. Par exemple, le ministère de l'Énergie a enregistré un traitement de texte assisté à trois reprises à trois reprises comme des «cas d'utilisation» distincts, même s'il en représente un. Notre analyse expliquera ces différences de catégorisation.
DOJ: une étude de cas en fragmentation
Le ministère de la Justice, avec 240 systèmes d'IA signalés soutenant environ 100 à 110 cas d'utilisation uniques, illustre les défis de la mise en œuvre de l'IA fragmentée. Ces systèmes couvrent diverses applications, de la reconnaissance des modèles dans les données sur les crimes violents à la prévision des niveaux de sécurité des détenus et à la transformation de l'audio en texte. Alors que 70% de ces systèmes sont opérationnels, un examen plus approfondi révèle une fragmentation à travers deux dimensions critiques: les bureaux et les flux de travail.
- Fragmentation dans les bureaux: moins de cinq pour cent des systèmes d'IA du DOJ sont à l'échelle du département, et près de 70% sont confinés à un seul bureau. Cela peut entraîner des redondances, avec des systèmes d'IA distincts remplissant des fonctions similaires dans différentes parties de l'organisation. Par exemple, l'enregistrement affiche 12 systèmes de lecteurs de plaques d'immatriculation différents et neuf systèmes d'IA pour la transcription audio et vidéo. Cette approche spécifique au bureau peut également ajouter une friction lors du partage d'informations. Considérez par exemple le FBI, la DEA, l'ATF et le bureau de l'inspecteur général utilisent chacun différents systèmes de lecture de plaques d'immatriculation. Une telle fragmentation, tout en reflétant éventuellement les frontières organisationnelles, peut limiter la capacité de l'IA à distribuer efficacement des informations cruciales, à entraver la collaboration et à rassembler des renseignements.
- Fragmentation entre les flux de travail: la plupart des systèmes d'IA sont conçus pour des tâches étroites, plutôt que d'être intégrées sur un flux de travail entier. Considérez, par exemple, un analyste du FBI enquêtant sur une affaire pénale. Pour analyser diverses preuves – photos, vidéos, documents et données publiques – ils peuvent utiliser jusqu'à sept systèmes d'IA différents: un pour l'extraction et la traduction de texte, une autre pour le traitement de ces informations, trois outils de reconnaissance faciale, un pour la catégorisation des données publiques, et encore une autre pour une analyse plus large. Cette approche, bien que efficace pour les tâches individuelles, nécessite souvent une réforme des données manuelle et longue et un transfert entre les systèmes, ce qui peut entraîner des inefficacités et introduire des erreurs.
Ces fragments, aggravés par une stratégie d'IA de quatre ans dépassés, sont également coûteux car chaque système individuel exige un processus d'acquisition, des mises à jour, un soutien et une formation distincts, des budgets ministériels et du personnel.
Exploiter l'intelligence artificielle dans le gouvernement fédéral
Plaider pour l'adoption de l'IA ne suffit pas. Pour vraiment exploiter le pouvoir de l'IA, le gouvernement fédéral – en particulier les agences comme le DOJ – ne doit pas être une stratégie complète et prospective. Cette stratégie doit prioriser deux domaines critiques:
- Les agences doivent créer des voies d'acquisition et de déploiement pour les systèmes d'IA qui sont à la fois suffisamment rapides pour suivre le rythme de l'évolution de l'IA et permettre une affinement en AI continue à mesure que de nouvelles données émergent et visibles dans toute l'organisation pour réduire les inefficacités.
- Les agences doivent réinventer les flux de travail en déplaçant au-delà de l'IA spécifique à la tâche. Cela signifie intégrer l'IA entre diverses tâches et bureaux, ce qui aide à réduire les inefficacités et à décomposer des silos d'information persistants.
S'attaquer à ces éléments positionnera les agences gouvernementales fédérales pour maximiser le potentiel de l'IA, améliorer la vitesse et la qualité de leurs décisions et actions, renforçant la sécurité nationale et mieux servir le public américain.
