Singapour lutte contre les deepfakes, le consentement et les préjudices numériques à l'ère de l'IA
La circulation de fausses photos de nus parmi École de sport de Singapour (SSP) Début novembre, les étudiants ont souligné les dangers de l'utilisation malveillante de l'intelligence artificielle (IA), car elle recoupe les questions de consentement, de sexualité, de genre et de cyberconscience. Les deepfakes sont des contenus modifiés numériquement (image, vidéo ou audio) qui utilisent l'IA pour imiter l'apparence ou la voix de quelqu'un.
Ce n’est pas la première fois que des images et des vidéos deepfakes font la une des journaux à Singapour. En effet, immédiatement après l'affaire SSP, la nouvelle est tombée que cinq ministres figuraient parmi plus de 100 fonctionnaires singapouriens ayant reçu e-mails d'extorsion avec des images deepfake « compromettantes ». De tels actes de chantage au moyen de matériel sexuellement compromettant sont également connus sous le nom de « sextorsion ».
Ces incidents montrent que n’importe qui, personnalité publique ou non, peut être la cible de deepfakes. Ils mettent en évidence les espaces et les comportements nuisibles auxquels les internautes sont confrontés quotidiennement, en particulier les jeunes, pour qui une grande partie de leur vie est en ligne. Plus précisément, l’affaire SSP, dans laquelle les faux nus ont capitalisé sur les images de personnes existantes, met en lumière les problèmes croisés concernant le consentement, la sexualité, le genre et la cyberconscience (limitée) chez les jeunes.
La génération AI et le problème des deepfakes
L’IA générative (Gen AI) peut être utilisée pour créer de fausses images et du contenu vidéo et audio. La prolifération et la facilité d’accès aux outils de Gen AI les ont rendus accessibles non seulement aux internautes ordinaires, mais également aux cybercriminels et aux terroristes.
Bien entendu, les outils qui créent des deepfakes ne sont pas uniquement utilisés à des fins malveillantes. Les deepfakes peuvent également fournir humour et divertissement – comme les applications d’échange de visage, le compte TikTok dédié aux deepfakes de Tom Cruise, ou encore le deepfake de Luke Skywalker dans « The Mandalorian » qui a retenu l’attention des fans de Star Wars. Cependant, il est actuellement presque impossible de garantir leur utilisation uniquement à des fins de divertissement ou à des fins bonnes.
Les deepfakes ont été exploités pour tenter de diffuser de la désinformation, y compris des informations erronées liées aux élections, pour alimenter des activités cybercriminelles et à des fins de chantage et d'extorsion. Par exemple, des exemples de fausses informations ont été présents lors des récentes élections indiennes, indonésiennes et américaines, incitant Singapour à adopter une loi en octobre pour interdire les deepfakes des candidats lors des élections.
Les deepfakes peuvent également être utilisés pour usurper l’identité. Comme Singapour est à égalité avec le Cambodge au deuxième rang en Asie-Pacifique pour l'augmentation de sa fraude d'identité (par un énorme 240 pour cent)la manière dont les deepfakes sont exploités dans ces aspects mérite une attention particulière.
Il existe également des préoccupations liées aux données. Par exemple, même dans le cas de deepfakes générés par les utilisateurs à des fins inoffensives, les utilisateurs doivent être attentifs à des questions telles que la manière dont leurs données sont stockées et utilisées par les sociétés propriétaires de l'application.
L'image et audio les entrées requises pour générer des images ou du son synthétiques diminuent déjà, et les nouvelles technologies continueront de rendre les deepfakes plus réalistes et beaucoup plus faciles d’accès et de création.
Alors que certaines entreprises tentent d'incorporer garde-fous contre les abus de leurs produits, d'autres, en particulier les petites entreprises et les startups, peuvent ne pas avoir les moyens et la motivation nécessaires pour intégrer de telles mesures de sécurité et suivre les meilleures pratiques. Les experts doivent continuellement rechercher pour identifier les failles de sécurité et évaluer l’efficacité des mesures existantes et à venir.
L’angle du genre ne doit pas être manqué
Étudiants du PAS générer et faire circuler les fausses images nues de leurs camarades de classe mettent également en lumière les dangers auxquels sont confrontées les femmes et les filles. Les deepfakes nus sont souvent liés au problème plus large du partage non consensuel d’images intimes, qui fait partie du problème plus large des abus sexuels basés sur l’image (IBSA).
Les femmes peuvent courir un plus grand risque d’être ciblées par certaines formes – sinon toutes – d’IBSA. Par exemple, certaines études suggèrent que la majorité des survivants d’abus sexuels basés sur l’image sont des femmeset ça les hommes sont plus susceptibles que les femmes de commettre des actes une telle violence. Les personnes ciblées par des images de nus deepfakes (généralement simplement appelées « nus », légitimant davantage le contenu de la génération AI) peuvent en faire l'expérience. des impacts similaires à ceux des survivants d’agression sexuelleavec des conséquences sur le bien-être d'une personne ainsi que sur sa réputation professionnelle ou personnelle. Les deepfakes sexuellement explicites peuvent conduire à une objectivation accrue des femmes, provoquer des traumatismes psychologiques, entacher leur réputation et entraîner un risque de préjudice physique. En effet, selon SG Her Empowerment (SHE), plus de la moitié des jeunes participants à l’une de leurs études ont vu «sexualisation/objectification des femmes » comme « un effet négatif» de la génération AI.
Singapour a connu diverses cas d'IBSA les ciblages sur les femmes apparaissent au fil des années, comme des visages réels ou manipulés superposés sur des corps seins nus ou dans des positions compromettantes, du voyeurisme vidéo et des vidéos sous les jupes. Parmi eux, le cas récent d'un homme qui, en secret a filmé la nièce de sa femme et a édité son visage sur des vidéos pornographiques montre la facilité avec laquelle les images et les vidéos – généralement de femmes et de filles – peuvent être filmées et montées sans consentement.
Combattre les périls des Deepfakes
La question de la lutte contre les deepfakes est complexe. Il doit y avoir un débat plus large sur responsabilités des développeurs de l’IA sous-jacenteet ceux qui fournissent des services de création de code ou de deepfake à d’autres, rendant la technologie largement accessible. Maria Pawelec a souligné à juste titre que des acteurs tels que les développeurs open source et les professionnels travaillant dans de grandes entreprises technologiques, des startups spécialisées et des applications deepfakes doivent participer à la conversation sur l’éthique et la gouvernance de l’IA pour réduire les dangers des deepfakes.
Nouvelles technologiesy compris l’IA, sont également utilisés pour détecter les matériaux nocifs générés par l’IA. Plusieurs systèmes de détection basés sur la technologie et méthodes médico-légales peuvent analyser le contenu numérique à la recherche d’incohérences généralement associées aux deepfakes. Avec le temps et une plus grande adoption, les mesures de détection basées sur l’IA deviendront plus sophistiquées et auront un plus grand impact sur la lutte contre les deepfakes nuisibles.
Des politiques et des législations émergent rapidement dans ce domaine, telles que Modèle de cadre de gouvernance de Singapour pour l'IA générative. Cependant, en l’absence de mesures exécutoires, les gouvernements doivent mettre en place des mesures de protection pour garantir que les entreprises suivent les meilleures pratiques et disposer de moyens d’intervenir si nécessaire.
Une combinaison de mesures de cybersécurité, d’efforts politiques et réglementaires continus et de sensibilisation du public constituera la pierre angulaire de la lutte contre les préjudices liés aux deepfakes. La lutte contre les deepfakes nuisibles nécessite une approche pansociétale ; Même si les individus ne doivent pas assumer seuls le lourd fardeau de la lutte contre les deepfakes malveillants, ils doivent être armés des compétences nécessaires pour s’y retrouver et savoir comment agir lorsqu’ils sont ciblés.
Des communautés ayant le pouvoir de lutter contre les deepfakes
Les cicatrices psychologiques de l'IBSA liée aux deepfakes peuvent persister pour les survivants, qui doivent pouvoir accéder à de l'aide et rechercher facilement des options de réparation. Il y a options juridiques pour les survivants à Singapour, car les actes impliquant des photos falsifiées constituent des infractions au Code pénal. Cependant, dans les cas où les survivants ne connaissent pas l’auteur des faits ou dans le cas de grandes communautés en ligne, où de tels actes peuvent être révélés très tard et/ou au-delà des frontières géographiques, les survivants peuvent se heurter à plusieurs obstacles pour signaler, enquêter et obtenir réparation. Il y a aussi le fardeau émotionnel qui accompagne ces actions, ce qui rend d’autant plus important que les agences et les agents chargés de l’application des lois soient formés pour traiter ces questions de manière appropriée et avec sensibilité.
Dans le Affaire SSP, plusieurs auteurs ont fait l'objet de mesures disciplinairesy compris la bastonnade, la suspension de l'école, de la formation et de l'internat, et l'interdiction de voyages sportifs. Les parents des survivants ont déposé plainte à la police et certains ont également demandé que les auteurs de ces actes soient punis plus sévèrement par l'école, comme l'expulsion, soulignant que le sentiment de sûreté et de sécurité des filles avait été compromis.
Dans un tel cas, où les survivants et les auteurs sont mineurs et se connaissent, des questions inconfortables doivent être posées concernant l’intention. Sensibilisation au consentement et aux bonnes pratiques sexuelles en ligne et à l'influence de masculinité masculine toxique sur Interneten particulier dans les espaces appelés « manosphère », sont des dimensions importantes de cette question.
La sensibilisation joue un rôle crucial dans l’élaboration et l’orientation des comportements en ligne, et les internautes, et les jeunes en particulier, ont besoin d’une éducation et d’une formation régulières en matière de cybersensibilisation. Cela inclut la sensibilisation à la bonne expression en ligne, la compréhension des comportements et activités nuisibles en ligne et les sanctions prévues par la législation en vigueur. Il comprend également guider les garçons et les jeunes hommes des espaces sombres de la manosphère. La disponibilité de ressources fiables en matière d'éducation sexuelle peut grandement contribuer à empêcher la création et la circulation de matériel deepfake sexuellement explicite. À cet égard, les efforts du ministère de l'Éducation pour accroître les connaissances sur la sexualité et le genre est un effort crucial qui peut être étendu au-delà des écoles.
Pour les représentants du gouvernement et les survivants en contact avec le public, la sensibilisation à la manière de réagir aux deepfakes impliquerait de signaler les courriels d’extorsion et d’ignorer les instructions pour établir un contact ou effectuer des paiements, évitant ainsi une perte monétaire.
Même si les menaces posées par les deepfakes continueront d’augmenter, la cybersensibilisation et les meilleures pratiques en matière de cyberhygiène, telles que les bonnes pratiques en matière de mots de passe, le refus de partager des informations non vérifiées et le partage conscient d’images, peuvent garantir dans une certaine mesure que nous nous préparons pour l’avenir contre ces contrefaçons. Après tout, que ce soit dans le monde hors ligne ou en ligne, mieux vaut prévenir que guérir.