La politique d'IA de l'administration devrait prioriser la sécurité pour les femmes et les filles

La politique d'IA de l'administration devrait prioriser la sécurité pour les femmes et les filles

Dans le plan d'action de l'IA récemment publié, la Maison Blanche décrit une série de directives aux agences fédérales visant à garantir que l'Amérique «gagne» la race de l'intelligence artificielle (IA). Notamment absent du plan et des trois décrets qui accompagnent la reconnaissance des préjudices sociétaux posés par la technologie en développement rapide, y compris un plan concrète pour lutter contre les impacts disproportionnés sur les femmes et les enfants ciblés par Deepfakes. Il s'agit d'une omission importante, et surprenante étant donné que deux mois plus tôt, le président Donald Trump a signé la loi sur la prise. La loi représente un accord bipartisan rare pour lutter contre l'armement des outils d'IA pour générer des abus sexuels basés sur l'image. Soutenu publiquement par la première dame Melania Trump, la loi criminalise les images intimes réelles et synthétiques non consensuelles d'adultes et de mineurs, et nécessite des plateformes couvertes pour supprimer les images publiées sans le consentement du sujet en quarante-huit heures. Ces premières étapes pour freiner l'un des préjudices les plus visibles posés par l'IA seraient incommensurablement améliorés avec des conseils aux agences fédérales sur la mise en œuvre de la loi, et en ajoutant des mesures de sécurité au plan d'IA qui jette la réglementation en tant qu'ennemi de l'innovation et embrasse les modèles à source ouverte et ouverts sans se préoccuper de leurs risques.

Images synthétiques, vraie préjudice

Comme le témoignage conduisant à l'adoption de la nouvelle loi le montre clairement, les images non consensuelles générées par l'IA créent de véritables préjudices. Les survivants peuvent ressentir une gamme d'impacts, notamment la dépression, l'anxiété, le trouble de stress post-traumatique, l'automutilation et même le suicide. Bien que les femmes et les filles soient la majorité des victimes (une étude suggère que 96% des Fakes Deep-Fakes sont du porno non consensual, et un rapport plus récent estime que 99% des femmes du porno DeepFake), les adolescents ont été ciblés par des programmes de sextorsion financier, aidés par des applications «nudify» à la consommation de l'AI. En tant que conseiller principal au Conseil des politiques de genre de la Maison Blanche, j'ai entendu des centaines de survivants de harcèlement et d'abus en ligne, y compris des jeunes femmes courageuses comme Francesca Mani. À quatorze ans, Mani a fait l'objet d'une image nue profonde diffusée par un autre camarade de classe sans son consentement, et se tenait à côté de Trump en mai lors de la signature de Rose Garden de Take It Down. Selon les propres mots du président lors de la signature du projet de loi: «Avec la montée en puissance de la génération d'images de l'IA, d'innombrables femmes ont été harcelées avec des fesses profondes et d'autres images explicites réparties contre leur volonté… il est allé à des niveaux que personne n'a jamais vu auparavant.»

Le président a raison de blâmer l'IA pour la croissance des abus sexuels basés sur l'image. Selon le National Center for Missing and Exploiteteted Children (NCMEC), les rapports à sa ligne de cyber-poinçonne pour l'enfant généré par AI-Genterated Sexual Abuse (CSAM) ont augmenté de plus de sept dans la première moitié de l'année, par rapport aux rapports à partir de 2024. Selon de nouvelles recherches, une montée en puissance des applications et des sites de «nudification» dédiés à la commercialisation du contenu non consensuel, générant 36 millions de dollars par an. Au lieu de traiter les modèles open-source et ouverts avec la prudence qu'ils méritent (d'autres ont mis en garde contre leurs implications sur la sécurité nationale), l'administration Trump préconise que davantage de modèles soient distribués de cette manière, citant leur «valeur unique pour l'innovation». À une époque où les abus sexuels à l'image générés par l'AI sont en augmentation, cela, c'est comme verser de l'essence sur une flamme brûlante.

Ce que l'administration peut faire: retirer la mise en œuvre de la loi

Il y a plusieurs actions que la Maison Blanche peut prendre pour faire avancer la mise en œuvre de la loi sur la prise et atténuer ce préjudice croissant, dont un adolescent sur huit rapporte personnellement en sachant que quelqu'un avait subi. Maintenant que les abus sexuels basés sur l'image sont une infraction fédérale, davantage de survivants se manifesteront pour demander de l'aide et la nécessité de services dévoués, comme la ligne d'assistance nationale sur l'abus d'images, financée par une subvention du ministère de la Justice et exploitée par l'initiative Cyber Civil Rights, ne fera que se développer. L'administration Trump devrait assurer la poursuite de ce programme, ainsi que la ligne de cyberlipe et d'autres services fournis par le NCMEC pour les enfants victimes d'abus sexuels basés sur l'image afin que les survivants puissent accéder à des soins compatissants et compatissants.

Alors que la technologie continue d'évoluer, les forces de l'ordre et les avocats auront besoin d'une formation supplémentaire pour enquêter et poursuivre efficacement les cybercrimes comme les abus sexuels basés sur l'image. Plutôt que de réétendre le financement de l'application des lois afin de lutter contre la violence fondée sur les sexes facilitée par la technologie, comme le budget du président Trump 2026 propose, l'administration Trump devrait demander plus de ressources pour doter la police et les procureurs pour tenir les délinquants responsables. Au minimum, la Maison Blanche devrait respecter le financement des subventions du National Resource Center on Cybercrimes contre les individus, que le Congrès a autorisé en vertu de la loi bipartisan 2022 Reauthorization of Violence Against Women Act.

Engager le secteur privé sur l'IA responsable

Il y a aussi plus à faire pour empêcher l'usage abusif de l'IA de générer des abus sexuels basés sur l'image en premier lieu, et cela doit impliquer le secteur privé. Ici, l'administration Trump pourrait déployer stratégiquement le pouvoir de l'approvisionnement des agences fédérales pour inciter les pratiques responsables de l'IA, comme les tests et les garanties contre la génération d'abus sexuels basés sur l'image en tant qu'administration préalable à l'administration de Biden-Harris sous l'intelligence artificielle de l'intelligence artificielle, qui a été rénové en toute sécurité et en toute sécurité.

De plus, comme les plates-formes couvertes ont un an jusqu'à ce que les exigences de retrait de la loi sur les quarante-huit heures entrent en vigueur, l'administration Trump pourrait faire appel aux entreprises à améliorer la transparence autour de leurs politiques de suppression de contenu, réduisant les obstacles à la déclaration des abus. De plus, les plates-formes qui n'ont pas encore investi dans des outils tels que stopncii.org et takeitdown.org, qui utilisent la technologie de hachage d'image pour détecter et empêcher le partage de photos et de vidéos non consensuelles, devraient s'opposer et aider à étendre la portée de ces ressources pour les survivants pour reprendre le contrôle de leurs images. Le plaidoyer de la Première Dame pour la retrait est remarquable et pourrait être canalisé vers ces objectifs.

La Maison Blanche ferait bien d'affirmer le leadership américain dans un programme affirmatif pour la sécurité de l'IA qui préserve la confidentialité et les droits individuels sur cette technologie en évolution rapide, comme l'Union européenne l'a récemment fait. En encadrant la réglementation comme l'antithèse de l'innovation – une position préoccupante qui fait écho à l'éthique antérieure de la Silicon Valley de «déplacer les choses rapides et de briser», il cède la politique et le pouvoir aux entreprises plutôt que de les inciter à innover pour la sécurité et la confidentialité par conception. Le résultat sera probablement une accélération inquiétante des risques graves que les modèles de l'IA – conçus par des développeurs qui n'ont pas la motivation et l'expérience vécue pour hiérarchiser la sécurité des communautés vulnérables – se présentent déjà aux femmes et aux filles, à un moment où la fréquence et la capacité de génération de l'IA génératrice pour créer des abus sexuels basées sur l'image devient de plus en plus prononcées.

Le président Trump a annoncé que son administration «ne tolérerait pas l'exploitation sexuelle en ligne» dans la signature de la loi sur la prise en charge, et pour ce faire, il doit s'assurer que les ressources fédérales restent en place pour fournir aux survivants un soutien spécialisé et tenir les délinquants responsables. Le président a un soutien bipartite pour le faire, et les survivants et leurs familles regardent. Gagner la course de l'IA ne devrait pas se faire au détriment de la sécurité des femmes et des filles.

A lire également