Quel impact le décret de l’administration Biden aura-t-il sur le développement de l’IA ?

Quel impact le décret de l’administration Biden aura-t-il sur le développement de l’IA ?

Robert Brunner est doyen associé à l’innovation et directeur des perturbations au Gies College of Business de l’Université de l’Illinois à Urbana-Champaign. Brunner s’est entretenu avec Phil Ciciora, rédacteur en chef des affaires et du droit du News Bureau, au sujet du décret de l’administration Biden sur les systèmes d’intelligence artificielle.

Quel impact un décret aura-t-il sur le développement de l’intelligence artificielle aux États-Unis ?

On pourrait dire que quelque chose comme un décret n’est peut-être pas la meilleure solution au problème, mais c’est certainement un moyen de faire quelque chose rapidement pour attirer davantage l’attention sur le problème. Donc, à cet égard, c’est probablement un résultat net positif.

Le problème avec les décrets, c’est qu’ils ne sont pas permanents. Si un nouveau président est investi en janvier 2025, alors ce décret et toutes ses implications politiques pourraient être annulés. La plus grande question est de savoir si le Congrès parviendra un jour à se ressaisir et à adopter une législation significative réglementant l’IA. Cela aura finalement beaucoup plus de sens et d’impact que n’importe quel décret.

Mais en termes de politique, je pense que c’est un bon premier départ. Il y a de très bonnes choses dans le décret, notamment l’idée d’empêcher l’IA de nuire aux communautés marginalisées. Un bon exemple de cela est que lorsque les prisonniers demandent une libération conditionnelle, le système judiciaire utilise souvent un logiciel pour aider à déterminer la probabilité qu’un accusé puisse commettre un autre crime à l’avenir. Il s’avère que l’un des principaux algorithmes de récidive était biaisé à l’encontre des accusés noirs. Ce n’est là qu’un exemple d’IA pouvant causer des dommages que vous voudriez éviter.

J’aime aussi l’idée de filigraner numériquement le contenu créé par l’IA. Je ne sais pas dans quelle mesure cela fonctionnera dans la pratique, mais j’aime l’idée que nous allons au moins l’essayer parce que nous devons protéger les gens contre les contrefaçons profondes, en particulier à l’approche d’une année d’élection présidentielle. Ce genre de désinformation va malheureusement être un réel problème.

Dans le même temps, il faut se demander si un décret aura tant d’importance, car l’IA est un phénomène tellement mondial. Si les États-Unis imposent trop de réglementations à l’IA, alors tout ce développement ira inévitablement ailleurs. Les États-Unis peuvent-ils réglementer une entreprise étrangère susceptible de publier quelque chose en open source ? Non, ce n’est pas possible. Le président Biden devait faire quelque chose. Un décret est-il la bonne chose à faire ? Nous devrons voir comment cela est réellement mis en œuvre et ce que font les autres pays pour réglementer l’IA.

Avons-nous besoin d’un organisme de surveillance de l’IA au niveau fédéral ?

C’est une bonne idée en théorie, mais je ne sais pas comment cela fonctionnerait en pratique.

Quels pouvoirs un chien de garde de l’IA aurait-il ? Eh bien, c’est là que vous commencez à vous plonger profondément dans la politique de la question. Par exemple, Elon Musk a annoncé que la plateforme X, anciennement connue sous le nom de Twitter, dispose de son propre système d’IA générative appelé « Grok », en référence au « Guide du voyageur galactique » de Douglas Adams. Grok est formé sur les données Twitter et est censé être plus réactif et avoir moins de garde-fous que l’IA générative classique. Il essaie également d’être drôle et sarcastique.

Mais si vous aviez un organisme de surveillance de l’IA sous une administration démocrate, tenterait-il de réglementer les discours plus conservateurs générés par une IA ? Si c’est le cas, vous venez de soulever toute une série de problèmes de liberté d’expression. Il n’est pas clair que les contestations d’un organisme de surveillance survivraient à un examen judiciaire.

Bref, c’est une pente très glissante.

Je pense qu’une partie du problème vient de l’IA générative elle-même. Pour beaucoup de gens, l’IA générative a fait irruption sur la scène et dans la conscience publique. C’était si nouveau, si facile à utiliser, mais plus vous l’utilisez, plus vous réalisez que ce n’est pas aussi magique ou créatif que nous aurions pu le penser au départ. Ce n’est pas la superintelligence dont beaucoup craignent l’imminence.

C’est pourquoi je pense que de nombreux chercheurs s’opposent à la réglementation et avertissent que le gouvernement risque d’aller trop loin et de causer plus de mal que de bien.

L’administration Biden semble adopter une approche « globale » dans sa politique en matière d’IA. Est-ce une tentative de façonner l’IA alors qu’elle en est encore à ses balbutiements ?

De nombreuses personnes très bruyantes examinent notre expérience avec les médias sociaux et pensent que le gouvernement n’en a pas fait assez au début des années 2000 pour mettre en place des garde-fous adéquats. Vous en voyez encore aujourd’hui avec le procès contre Meta qui prétend avoir attiré des enfants sur Facebook et Instagram.

Avec le décret sur l’IA, je pense qu’à certains égards, il est préférable de le considérer comme un ballon d’essai. Plutôt que de se contenter d’une ou deux choses fondamentales, l’administration Biden essaie un certain nombre de choses différentes et essaie de discerner laquelle d’entre elles fonctionnera. Certaines d’entre elles ne fonctionnent peut-être pas, mais au moins ils ont une idée des mesures de protection potentielles et le font d’une manière qui, espérons-le, ne freine pas l’innovation ni ne nous nuise économiquement.

J’espère que le décret apportera une certaine clarté au niveau fédéral sur la manière dont les différentes organisations devraient travailler ensemble sur ce sujet et qu’à terme, nous pourrons avoir quelque chose de plus clair et plus complet.