S'attaquer au côté obscur de l'IA

S'attaquer au côté obscur de l'IA

Les électeurs du New Hampshire ont reçu une avalanche d’appels automatisés au cours desquels une imitation générée par ordinateur du président Biden les a découragés de voter aux primaires de janvier. Alors que le cerveau reconnu a été accusé de crime et d'une proposition d'amende de la FCC, son acte n'est qu'une blessure laissée par la technologie de pointe que les forces de l'ordre ont du mal à rattraper : l'intelligence artificielle.

Les « deepfakes » générés par ordinateur peuvent non seulement usurper l'identité de la voix et du visage de n'importe qui, mais aussi contribuer à la manipulation et à l'atteinte à la sexualité et à la réputation des individus et du public en général.

« Je pense que l'IA va affecter tout ce que tout le monde dans cette salle fait quotidiennement, et cela va certainement affecter le travail du ministère de la Justice », a déclaré le procureur américain par intérim du Massachusetts, Joshua Levy, lors d'une table ronde avec des journalistes. « Comment cela va se dérouler exactement, le temps nous le dira. »

Levy était particulièrement préoccupé par la capacité de la technologie à introduire de nouveaux « doutes » sur les preuves médico-légales éprouvées lors du procès.

« Nous nous appuyons beaucoup sur les bandes audio et vidéo dans les dossiers des procureurs », a-t-il déclaré. « Nous devons convaincre 12 étrangers (le jury) au-delà de tout doute raisonnable de la culpabilité de quelqu'un. Et quand vous introduisez l'IA et les doutes qui peuvent en résulter, c'est un défi pour nous. »

Les législateurs du pays et du monde entier tentent de rattraper leur retard face à cette technologie en croissance rapide, et son analyse juridique est devenue un sujet universitaire brûlant.

Mouvements de haut niveau

« Nous allons assister à plus de changements technologiques au cours des 10, peut-être des cinq prochaines années qu'au cours des 50 dernières années et c'est un fait », a déclaré le président Biden en octobre, juste avant de signer un décret visant à réglementer la technologie. technologie. « La technologie la plus importante de notre époque, l'intelligence artificielle, accélère ce changement. »

« L'IA est partout autour de nous », a poursuivi Biden. « Pour réaliser les promesses de l'IA et éviter les risques, nous devons gouverner cette technologie. »

Parmi de nombreuses autres réglementations, l'ordonnance ordonne au ministère du Commerce de développer un système d'étiquetage du contenu généré par l'IA pour « protéger les Américains contre la fraude et la tromperie grâce à l'IA » et tente de renforcer la protection de la vie privée en finançant la recherche dans ces domaines.

En février, le ministère américain de la Justice – dont le bureau de Levy fait partie régional – a nommé son premier « responsable de l'intelligence artificielle » pour diriger la compréhension et les efforts du ministère sur les technologies émergentes rapidement.

« Le ministère de la Justice doit suivre l'évolution rapide des développements scientifiques et technologiques afin de remplir notre mission de faire respecter l'État de droit, d'assurer la sécurité de notre pays et de protéger les droits civils », a déclaré le procureur général Merrick Garland dans le communiqué.

Le responsable de l'IA Jonathan Mayer, professeur adjoint à l'Université de Princeton, a expliqué le DOJ, fera partie d'une équipe d'experts techniques et politiques qui conseilleront les dirigeants sur des domaines technologiques tels que la cybersécurité et l'IA.

De l’autre côté de l’Atlantique, l’Union européenne a adopté en mars son propre cadre de réglementation de l’IA, l’AI Act, qui a nécessité cinq années d’élaboration.

L'un des leaders législatifs sur la question, le législateur roumain Dragos Tudorache, a déclaré avant le vote que la loi « a poussé l'avenir de l'IA dans une direction centrée sur l'humain, dans une direction où les humains contrôlent la technologie ». selon Associated Press.

Sam Altman, PDG et cofondateur d'OpenAI, créateur du service ChatGPT extrêmement populaire alimenté par de grands modèles de langage d'IA, a appelé en mai de l'année dernière le Congrès à réglementer son industrie.

« Il devrait y avoir des limites à ce dont un modèle déployé est capable et à ce qu'il fait réellement », a-t-il déclaré lors de l'audition au Sénat, appelant à ce qu'une agence autorise les grandes opérations d'IA, élabore des normes et mène des audits de conformité.

Mouvements au niveau de l’État

Le décret de Biden n’est pas une législation permanente. En l’absence de lois au niveau fédéral, les États prennent leurs propres mesures pour façonner la technologie comme ils le souhaitent.

Le groupe de défense de l'industrie du logiciel, BSA The Software Alliance, a suivi 407 projets de loi liés à l'IA dans 41 États américains jusqu'au 7 février de cette année, dont plus de la moitié ont été introduits rien qu'en janvier. Alors que les projets de loi traitaient d'un mélange de questions liées à l'IA, près de la moitié d'entre eux (192) concernaient la réglementation des problèmes de « deepfake ».

Dans le Massachusetts, le procureur général Andrea Campbell a publié en avril un « avis » pour guider les « développeurs, fournisseurs et utilisateurs d'IA » sur la manière dont leurs produits doivent fonctionner dans le cadre des cadres réglementaires et juridiques existants du Commonwealth, y compris la protection des consommateurs et la lutte contre la discrimination. et les lois sur la sécurité des données.

« Il ne fait aucun doute que l'IA recèle un potentiel énorme et passionnant qui bénéficiera à la société et à notre Commonwealth de plusieurs manières, notamment en favorisant l'innovation et en augmentant l'efficacité et les économies sur le marché », a déclaré Campbell dans le communiqué. « Pourtant, ces avantages ne compensent pas le risque réel de préjudice que, par exemple, tout parti pris et manque de transparence au sein des systèmes d'IA peut causer à nos résidents. »

Le Boston Herald a interrogé les bureaux de Campbell et du gouverneur Maura Healey sur les nouveaux développements en matière de réglementation de l'IA. Le bureau de Healey a renvoyé le Herald au bureau de Campbell, qui n'a pas répondu dans les délais.

De l’autre côté, la Californie tente de montrer la voie en matière de réglementation de la technologie qui s’étend à la vitesse de la lumière dans pratiquement tous les secteurs – mais sans la réglementer au point de devenir peu attrayante pour les riches entreprises technologiques qui mènent la charge.

« Nous voulons dominer cet espace, et je suis trop compétitif pour suggérer le contraire », a déclaré le gouverneur de Californie, Gavin Newsom, lors d'un événement annonçant un sommet à San Francisco où l'État envisagerait des outils d'IA pour résoudre des problèmes épineux comme le sans-abrisme. « Je pense que le monde attend de nous, à bien des égards, que nous soyons leaders dans ce domaine, et nous ressentons donc un profond sentiment de responsabilité pour bien faire les choses. »

Les risques : Manipulation

Le consultant du Parti démocrate de la Nouvelle-Orléans qui a déclaré qu'il était à l'origine des appels automatisés de clonage vocal imitant Biden l'aurait fait à très bas prix et sans technologie d'élite : en payant 150 $ à un magicien des rues de la Nouvelle-Orléans pour qu'il fasse la voix sur son ordinateur portable.

L'intrigue du roman n'impliquait aucun code pénal direct. Le 23 mai, le procureur général du New Hampshire a inculpé le cerveau Steven Kramer de 13 chefs d'accusation, chacun de crime de suppression d'électeurs et de délit d'usurpation d'identité d'un candidat. Le même jour, la Commission fédérale des communications lui a proposé une amende de 6 millions de dollars pour violation de la « Truth in Caller ID Act » parce que les appels avaient usurpé le numéro d'un membre local du parti.

La veille, la présidente de la FCC, Jessica Rosenworcel, avait annoncé des propositions visant à ajouter de la transparence aux messages politiques manipulés par l'IA, sans toutefois suggérer que leur contenu soit interdit.

L'annonce indique que « l'IA devrait jouer un rôle substantiel dans la création de publicités politiques en 2024 et au-delà » et que l'intérêt public oblige la commission « à protéger le public contre les programmes faux, trompeurs ou trompeurs ».

Un regard sur la littérature académique sur le sujet au cours des dernières années regorge d’exemples de manipulations dans des pays étrangers ou par des acteurs étrangers opérant ici aux États-Unis.

« Même si la technologie des deep-fakes apportera certains avantages, elle introduira également de nombreux dommages. Le marché des idées souffre déjà du déclin de la vérité à mesure que notre environnement d'information en réseau interagit de manière toxique avec nos biais cognitifs », ont écrit les auteurs Bobby Chesney et Danielle Citron dans la California Law Review en 2019.

« Les deep fakes vont exacerber ce problème de manière significative. Les individus et les entreprises seront confrontés à de nouvelles formes d'exploitation, d'intimidation et de sabotage personnel. Les risques pour notre démocratie et pour la sécurité nationale sont également profonds », indique leur article « Deep Fakes: A Looming Challenge for Vie privée, démocratie et sécurité nationale », a poursuivi.

Depuis 2021, un compte parodique TikTok appelé @deeptomcruise illustre à quel point la technologie est devenue puissante en collant le visage de la superstar hollywoodienne Tom Cruise sur le corps des autres et en clonant sa voix. L'expérience ludique nécessitait encore un traitement graphique de pointe et de nombreuses images pour entraîner l'IA sur le visage de Cruise.

« Au fil du temps, de telles vidéos deviendront moins chères à créer et nécessiteront moins de séquences de formation », a écrit l'auteur Todd Helmus dans une introduction de 2022 de RAND Corporation sur la technologie et la désinformation qu'elle peut propulser.

« Les deepfakes de Tom Cruise font suite à une série de vidéos deepfakes qui présentaient, par exemple, un deepfake de Barack Obama de 2018 utilisant des grossièretés et un deepfake de 2020 d'un discours de Richard Nixon – un discours que Nixon n'a jamais prononcé », a écrit Helmus. « À chaque itération, la qualité des vidéos devient de plus en plus réaliste et les composants synthétiques sont plus difficiles à détecter à l'œil nu. »

Quant aux risques de la technologie, Helmus déclare : « La réponse n'est limitée que par l'imagination de chacun. »

« Compte tenu du degré de confiance que la société accorde aux séquences vidéo et du nombre illimité d'applications pour de telles séquences, il n'est pas difficile d'imaginer de nombreuses façons dont les deepfakes pourraient affecter non seulement la société mais aussi la sécurité nationale. »

L'article de Chesney et Citron comprenait une longue liste de manipulations possibles, allant d'une similaire aux appels automatisés de Biden à de « fausses vidéos (qui) pourraient montrer des fonctionnaires acceptant des pots-de-vin, faisant preuve de racisme ou se livrant à l'adultère » ou des fonctionnaires et des dirigeants discutant de guerre. crimes.

Les risques : intimité sexuelle

Dans un article séparé pour le Journal de droit de YaleCitron, qui était alors professeur à l'Université de Boston, a passé en revue les dégâts causés par la pornographie deepfake.

« Les technologies d'apprentissage automatique sont utilisées pour créer des vidéos sexuelles 'deep-fake', dans lesquelles les visages et les voix des gens sont insérés dans de la vraie pornographie », a-t-elle écrit. « Le résultat final est une vidéo ou un audio réaliste qui est de plus en plus difficile à démystifier. »

« Pourtant, même si les vidéos deep-fake ne représentent pas les organes génitaux (et autres parties intimes) réels des individus, » a-t-elle poursuivi, « elles détournent l'identité sexuelle et intime des gens. … Elles sont un affront au sentiment que les identités intimes des gens sont leur posséder à partager ou à garder pour eux. »

Son article comprenait des exemples horribles, dans lesquels des célébrités comme Gal Godot, Scarlett Johansson et Taylor Swift ont été soumises au traitement pornographique généré par l'IA, dans des contextes parfois très désagréables. D’autres ont cherché de l’aide pour générer de telles images de leurs anciens partenaires intimes. Du faux porno a été réalisé à partir d'une journaliste indienne et largement diffusé pour détruire sa réputation, car les personnes qui l'ont réalisé n'aimaient pas sa couverture.

Citron conclut par une étude des mesures juridiques qui peuvent être examinées, mais déclare que « la loi traditionnelle sur la vie privée est mal équipée pour répondre à certaines des atteintes à la vie privée à caractère sexuel d'aujourd'hui ».

Lors de la table ronde, le procureur américain Levy a trouvé les implications pornographiques de la technologie tout aussi gênantes que les autres connotations.

« Je ne suis pas un expert en droit sur la pédopornographie, mais s'il s'agit d'une image artificielle, je pense que cela va soulever de sérieuses questions quant à savoir si elle est passible de poursuites en vertu de la loi fédérale », a-t-il déclaré. « Je ne me prononce pas là-dessus, mais c'est une préoccupation à laquelle je pense. »