Les entreprises d’IA semblent être les premières à s’intéresser à la réglementation de l’IA. C’est inquiétant
Il a 38 ans et est aujourd’hui l’une des personnes les plus puissantes et les plus influentes au monde. Tout le monde veut prendre sa photo avec lui, et c’est exactement ce qu’il a réalisé lors d’une tournée unique en Europe – et avant, par d’autres régions de la mappemonde – dans laquelle il a rencontré des dirigeants et, surtout, des régulateurs. Avec tout le monde, nous avons insisté, il y avait une photo.
Son nom, bien sûr. C’est Sam Altman. Le PDG d’OpenAI s’est rendu fin mai en Espagne, en Pologne, en France et au Royaume-Uni, et a rencontré Thierry Breton à Bruxelles. Le calendrier chargé n’était pas destiné à faire connaître son entreprise et son produit phare, ChatGPT. Ce n’était pas vraiment nécessaire. Elle se destinait à une autre urgence : celle de parler de régulation de l’intelligence artificielle.
Le discours d’Altman avec tous ces dirigeants était étrangement similaire à celui qu’ils avaient tous tenu les semaines précédentes. Aux discours pessimistes sur une IA qui pourrait mettre fin à l’être humain se sont ajoutés d’autres moins dystopiques mais aussi inquiétants : Geoffrey Hinton, l’un de ceux considérés comme les « parrains de l’IA », a démissionné de son poste chez Google et a mis en garde contre des risques tels que la désinformation.
Altman lui-même a ajouté à cette vision inquiétante de notre avenir. « S’il fait des dégâts, il peut faire beaucoup de dégâts.« , a-t-il expliqué. Et après cela, son message associé : nous devons réguler l’IA, et nous sommes tout à fait disposés à collaborer avec les entités de régulation.
La position d’Altman et sa volonté pourraient être prises sans plus tarder comme une déclaration de bonnes intentions, mais les choses sont devenues encore plus intéressantes lorsque nous avons vu comment non seulement OpenAI, mais aussi d’autres grandes entreprises impliquées dans ce segment, demandaient exactement la même chose.
Les Big Tech veulent s’entendre avec les régulateurs
Le discours est similaire depuis des années. En janvier 2020, Sundar Pichai, PDG d’Alphabet, la maison mère de Google, réclamait déjà une réglementation pour ce segment. Un peu plus tard, en septembre 2021, Microsoft évoquait déjà la nécessité de « réguler l’IA pour promouvoir l’innovation responsable en Europe ».
les deux sociétés ils ont renouvelé le discours récemment. Pichai a expliqué dans le Financial Times que l’IA « est trop importante pour ne pas être correctement réglementée ».
Pendant ce temps, Satya Nadella a accordé une interview à Time en mai et a souligné que « je pense qu’il y a de la place pour le dialogue, et il y a aussi de la place pour que nous assumions notre responsabilité en tant que fournisseurs de cette technologie avant la réglementation, et ensuite j’espère qu’il y en aura ». Le président de Microsoft, Brad Smith, a également développé le sujet et parlé de la meilleure façon d’appliquer la gouvernance de l’IA.
Mark Zuckerberg lui-même, créateur de Facebook, déjà j’avais fait quelque chose de similaire à ce qu’Altman a fait, mais en 2020. Comme lui, il a rencontré les régulateurs européens avant que les propositions de réglementation de l’IA ne soient publiées. À cette époque, OpenAI était inconnu et Facebook n’était pas encore Meta – et il a commencé à tout miser sur le métaverse. Ces réunions d’alors, comme celles-ci maintenant, étaient destinées à la même chose.
La fin justifie les moyens
Ce qui n’est ni plus ni moins que gagner la course à l’IA. Se ranger du côté des régulateurs et montrer une volonté absolue de coopérer est un bon moyen d’y parvenir, mais il est évident qu’Altman – comme le reste de ceux mentionnés – a sa propre feuille de route.
Cela peut être déduit du choix des pays visités lors de sa tournée. Altman a visité l’Espagne, chose qui semble étrange jusqu’à ce que l’on se rende compte d’un fait clé : notre pays assumera la présidence du Conseil européen en juillet prochain. Le gouvernement espagnol a déjà clairement indiqué que l’achèvement de la loi sur l’IA est sa priorité absolue dans le domaine numérique, de sorte que la visite d’Altman était un coup sûr. Un dans lequel, bien sûr, il y avait une photo.
Mais ce programme prenait également forme lorsque son discours a changé. De voir l’IA comme une menace, il a poursuivi en déclarant quelque chose de tout à fait différent, en disant que « nous essaierons de nous conformer [la regulación]mais si nous ne pouvons pas le faire, nous cesserons de fonctionner. »
Les eurorégulateurs n’ont pas beaucoup aimé cela – avec Thierry Breton à la barre – et la vérité est que l’Union européenne semble avancer fermement vers l’approbation finale et la mise en œuvre de la loi sur l’IA, son approche – quelque peu stricte, selon experts — pour réglementer l’intelligence artificielle.
La prise du régulateur
Ce qu’Altman a fait, c’est la même chose que d’autres l’avaient fait dans le passé. Mark Zuckerberg a plaidé en 2020 pour une régulation des réseaux sociaux. « Je pense qu’une bonne réglementation peut nuire aux activités de Facebook à court terme, mais ce sera mieux pour tout le monde, y compris nous, à long terme », a-t-il expliqué. Un an plus tôt le discours avait été similaire lorsqu’il parlait d’une régulation plus forte d’internet.
Ces discours alors, comme celui d’Altman aujourd’hui, ont un nom : capture du régulateur. C’est le nom donné à « un type de défaillance de l’État qui survient lorsqu’une agence de régulation, créée pour défendre l’intérêt général, agit en faveur de certains intérêts politiques ou groupements d’intérêts du secteur qu’elle est chargée de réguler ». Ou ce qui revient au même : Altman ne veut pas de réglementation pour l’IA.
Veut sa réglementation.
Ces techniques de lobbying —— sont utilisées dans bien d’autres domaines, mais ici elles transforment les Big Tech en alliés théoriques des organismes de régulation : ils prétendent avoir les meilleures intentions et sont tout à fait ouverts à collaborer avec les régulateurs, mais ils le font pour essayer — comme n’importe qui à la tête de ces grandes entreprises le ferait probablement – influencer la rédaction des lois qui pourraient les affecter à l’avenir.
Mission accomplie?
La situation est devenue encore plus claire après les informations publiées dans Time. Cette publication a révélé qu’OpenAI tentait d’assouplir la régulation de l’intelligence artificielle en Europe. Comme ils l’ont expliqué dans ledit média, Altman a parlé à plusieurs reprises de la nécessité d’une réglementation mondiale de l’IA, « Mais dans les coulisses, OpenAI a fait pression pour que des éléments importants de la législation sur l’IA la plus complète au monde – la loi européenne sur l’IA – adoucissent de manière à réduire le fardeau réglementaire de l’entreprise« .
Source : Wikimédia.
Il semble que les amendements (ou du moins certains d’entre eux) proposés par OpenAI aient fini par former le texte final de la loi européenne qui a été approuvée par le Parlement européen la semaine dernière. L’un des plus pertinents, c’est que des systèmes tels que GPT-3 n’étaient pas considérés comme « à haut risque ». Dans un document OpenAI adressé à l’UE et publié par Time, les responsables de l’entreprise ont expliqué que « En soi, GPT-3 n’est pas un système à haut risque. Mais il a des capacités qui peuvent être utilisées dans des cas d’utilisation à haut risque ». .
La tournée Sam Altman semble avoir réussi: Le projet final ne comprenait plus les paragraphes suggérant que les systèmes d’IA à usage général, tels que GPT-3, devraient être intrinsèquement considérés comme à haut risque. Au lieu de cela, la loi sur l’IA parle de « modèles fondamentaux » (le GPT-3 entrerait également dans cette catégorie) et de la manière dont ceux-ci auraient des exigences un peu plus souples.