Ai

Réglementation de l’IA aux USA : un accord bipartisan entre Big Tech et gouvernement

2023 restera dans les mémoires comme l’année zéro du développement de l’intelligence artificielle à la portée de tous, non pas tant pour le lancement de la technologie, sur laquelle les sociétés de développement de logiciels travaillent depuis des années, mais pour que les gouvernements prennent conscience du potentiel de la technologie sous-jacente et, par conséquent, du réel risques liés à son utilisation incontrôlée.

Accord volontaire des Big Tech avec le gouvernement américain

La Maison Blanche, pour atténuer les problèmes de sécurité et les risques liés à l’intelligence artificielle, a déclaré que les sept entreprises les plus importantes dans le domaine du développement de l’IA ont accepté un engagement volontaire afin d’atténuer les risques de cette technologie émergente, intensifiant ainsi l’implication des États-Unis. gouvernement dans le débat de plus en plus urgent sur la réglementation de l’IA.

Il semble clair qu’à l’étranger, il n’y a aucune volonté d’être à la traîne de l’Union européenne en termes de réglementation des méthodes de développement et d’utilisation ultérieure des systèmes d’IA, ceci dans le but d’équilibrer les droits fondamentaux (dans le cas des droits civils aux États-Unis) et le développement durable des technologies. à des fins commerciales.

L’engagement des États-Unis est de développer une réglementation bipartite qui examine également les délicats problèmes éthiques liés à l’utilisation de telles technologies.

Le contenu de l’accord et les mécanismes de contrôle

Les entreprises impliquées, dont Google, Amazon, Microsoft, Meta et OpenAIpermettra à des experts en sécurité indépendants de tester les logiciels qu’ils développent, en s’engageant à partager des données sur la sécurité de leurs systèmes avec le gouvernement et les institutions universitaires.

Mais qui plus est, les signataires des Big Tech développeront des mécanismes pour alerte en faveur des internautes visant à faire prendre conscience au « consommateur » que les contenus sont générés par l’IA et non par le travail, même créatif, de l’homme.

En réalité, la technologie existe déjà, c’est-à-dire ce qu’on appelle le « watermarking », c’est-à-dire le marquage numérique des fichiers informatiques grâce auquel il sera possible non seulement de connaître leur origine, mais aussi la technologie d’IA utilisée à des fins générales, avec implications non seulement en ce qui concerne la protection de l’utilisateur du réseau, mais également en ce qui concerne tout droit d’auteur qui aurait pu être violé, dans le cas où, par exemple, une image a été créée à partir d’une œuvre originale comme base.

New York

Par ailleurs, il faut dire que le gouvernement américain a identifié les FTC (Federal Trade Commission, antitrust américain) en tant qu’organisme chargé de contrôler le respect effectif de l’accord : en substance, la violation de l’engagement public par les entreprises signataires sera considérée comme une pratique trompeuse, donc en contradiction avec la législation sur la protection des consommateurs.

De toute évidence, cette tentative semble encore embryonnaire, notamment parce que les premières impressions tendent à suggérer que les contrôles exercés par les autorités sont assez modérés, car il n’y a ni obligation de déclaration ni délais fixes pour la transmission des données. au fait que les métadonnées n’ont pas été jugées suffisamment exhaustives.

A noter que la FCA a lancé une enquête sur ChatGPT en demandant à OpenAI des documents concernant les mesures de sécurité adoptées et pour vérifier si l’entreprise a fait ou non de fausses déclarations.

Régulation ou engagement public ?

Comme prévu, l’Union européenne a lancé un vaste travail de régulation de l’IA, tentant d’anticiper, pour la première fois, les effets des nouvelles technologies : un changement de direction historique, si l’on considère que le législateur arrive notoirement plus tard.

Cependant, les démarches parlementaires ne permettront pas d’approuver le texte dans un avenir proche, c’est pourquoi la Commission européenne envisage également d’utiliser, à titre provisoire, l’outil de l’engagement public pour tenter de limiter les effets négatifs d’un développement incontrôlé de technologies basées sur AU.

Les risques d’un développement incontrôlé au détriment des droits et libertés fondamentales

La crainte des gouvernements et de nombreux commentateurs est que l’IA puisse être utilisée pour influencer négativement les décisions d’individus qui, sans faire de distinction entre la réalité et la fiction de l’IA, se verraient refuser le droit à un choix politique libre et conscient : le risque est celui de un peuple « drogué » par une hyper-information déformée, avec un réel danger pour la stabilité des démocraties occidentales, dans lesquelles le pluralisme et le débat public deviennent des murs porteurs

L’autre danger concerne la protection de la dignité des individus, potentiellement exposés à des modifications artificielles de leur image, utilisées à des fins criminelles, comme l’usurpation d’identité, la diffamation, la calomnie dans la mesure où, par exemple, on veut imputer faussement à autrui des crimes criminels. des actes.

D’autres auteurs ont étudié les limites et le potentiel de l’IA appliquée à la justice dite prédictive ; en fait, on se demande si « l’IA peut être utilisée exclusivement pour la recherche de jurisprudence ou pour la sélection d’un modèle de décision ; il s’agit de déterminer s’il s’agit d’une base de données qui collecte des documents ou s’il s’agit d’un outil permettant d’identifier des lignes directrices et des critères utiles aux prédictions judiciaires sur le fait.

Conclusions

Quoi qu’il en soit, il ne faut pas se laisser aller à des scénarios nécessairement catastrophiques, notamment parce que la technologie actuelle a encore l’avantage d’être contrôlée et développée par l’homme ; cependant, il est nécessaire de se préparer à temps afin de ne pas commettre l’erreur de sous-estimer l’impact historique de l’IA sur le comportement des masses et, par conséquent, sur les choix futurs des gouvernements.

Sources: