Sam Altman est clair sur le fait que pour réglementer l’IA, vous devez l’autoriser. C’est particulièrement bon pour OpenAI.
L’Europe travaille depuis des mois sur une législation pour encadrer l’intelligence artificielle, mais son premier projet est inquiétant car contraignant. Aux États-Unis, ils étudient comment le réglementer et pour le savoir, ils ont demandé à Sam Altman, PDG d’OpenAI et responsable du développement de GPT-4 et ChatGPT. C’est ce qu’il pense.
Déclaration devant le Congrès. Altman a témoigné hier devant le Congrès des États-Unis pour tenter d’expliquer aux dirigeants du pays quelles sont les prochaines étapes pour lui en matière de réglementation de l’intelligence artificielle. Le PDG d’OpenAI a clairement indiqué que « nous comprenons que les gens s’inquiètent de la façon dont l’IA peut changer notre mode de vie. Nous le sommes aussi ».
La menace existe. Ces derniers temps, nous voyons comment divers experts mettent en garde contre le danger que peuvent représenter ces systèmes d’intelligence artificielle. Le plus récent et bien connu est celui de Geoffrey Hinton, décrit comme « le parrain de l’IA » qui a exposé les risques posés par cette technologie. Pour Altman, la menace existe, notant que cette industrie pourrait « causer des dommages importants au monde » et que « si cette technologie est mauvaise, elle peut être très mauvaise ».
Une agence mondiale pour le contrôler. La proposition de cet exécutif était de créer une agence américaine ou mondiale qui serait chargée de gérer la façon dont les systèmes d’intelligence artificielle sont utilisés pour restreindre ou non ces utilisations. La façon d’activer et de restreindre ces utilisations serait évidente pour Altman.
Licence. Selon Altman, une sorte de mécanisme serait nécessaire pour autoriser l’intelligence artificielle. L’agence chargée de contrôler le développement et l’utilisation de l’IA pourrait ainsi imposer des limites qui empêcheraient les modèles d’IA de « s’auto-répliquer et de s’auto-implanter comme des fous ».
Les licences favorisent la Big Tech. Mais bien sûr, ce modèle de licence est surtout avantageux pour des entreprises comme OpenAI, Google ou Anthropic, qui développent ces modèles et vendent ensuite l’accès à leur API. La proposition d’Altman n’est en aucun cas altruiste et constitue une réponse intéressante à la menace que ces entreprises voient dans les modèles d’IA Open Source.
Les licences compliqueraient les choses pour l’Open Source. Un document Google divulgué a montré comment « l’Open Source peut nous surpasser » dans le domaine de l’IA. Ces modèles s’avèrent plus agiles et plus rapides lorsqu’il s’agit de faire correspondre leurs avantages à ceux de modèles propriétaires tels que le GPT-4. Cependant, ceux qui les développent auraient un obstacle potentiel dans ce modèle de licence, car il leur est probablement difficile d’établir des limites et des contrôles robustes pour limiter la façon dont les gens les utilisent : étant Open Source, les gens pourraient modifier le code pour contourner lesdites limites.
pas tellement et pas si peu. Le débat généré dans ce domaine montre que la solution au problème de la régulation est très complexe : il ne convient pas d’être trop restrictif —ce qui nous empêcherait de profiter de la technologie et de la faire évoluer—, mais il ne convient pas non plus de laissez les modèles d’IA se déchaîner. Ni l’UE ni les États-Unis ne semblent être clairs sur la manière de parvenir à une réglementation adéquate, mais l’état même de la technologie, naissant et avec un avenir aussi incertain que son potentiel, n’aide pas.