Les appels à réglementer l’IA se font de plus en plus entendre, mais comment réglementer exactement une technologie comme celle-ci ?
La semaine dernière, des pionniers et des experts de l’intelligence artificielle ont exhorté les principaux laboratoires d’IA à suspendre immédiatement la formation des systèmes d’IA plus puissants que GPT-4 pendant au moins six mois.
Un lettre ouverte écrit par le Institut du futur de la vie a averti que les systèmes d’IA dotés d’une « intelligence compétitive humaine » pourraient devenir une menace majeure pour l’humanité. Parmi les risques, la possibilité que l’IA déjoue les humains, nous rendant obsolètes, et prendre le contrôle de la civilisation.
La lettre souligne la nécessité de développer un ensemble complet de protocoles pour régir le développement et le déploiement de l’IA. Il est dit:
« Ces protocoles devraient garantir que les systèmes qui y adhèrent sont sûrs au-delà de tout doute raisonnable. Cela ne signifie pas une pause dans le développement de l’IA en général, mais simplement un recul par rapport à la course dangereuse vers des modèles de boîtes noires imprévisibles toujours plus grands avec des capacités émergentes. »
En règle générale, la bataille pour la réglementation a opposé les gouvernements et les grandes entreprises technologiques. Mais la récente lettre ouverte – signée à ce jour par plus de 5 000 signataires, dont Elon Musk, PDG de Twitter et de Tesla, Steve Wozniak, co-fondateur d’Apple et Yonas Kassa, scientifique d’OpenAI – semble suggérer que davantage de parties convergent enfin d’un côté.
Pourrions-nous vraiment mettre en œuvre un cadre mondial rationalisé pour la réglementation de l’IA ? Et si oui, à quoi cela ressemblerait-il ?
Quelle réglementation existe déjà ?
En Australie, le gouvernement a établi le Centre national d’IA aider à développer la nation IA et écosystème numérique. Sous ce parapluie se trouve le Réseau IA responsablequi vise à favoriser une pratique responsable et à fournir un leadership en matière de lois et de normes.
Cependant, il n’existe actuellement aucune réglementation spécifique sur l’IA et la prise de décision algorithmique. Le gouvernement a adopté une approche légère qui embrasse largement le concept d’IA responsable, mais s’arrête avant de définir des paramètres qui garantiront sa réalisation.
De même, les États-Unis ont adopté une stratégie de non-intervention. Les législateurs n’ont montré aucun urgence dans les tentatives de réglementer l’IA, et se sont appuyés sur les lois existantes pour réglementer son utilisation. Le Chambre de commerce des États-Unis a récemment appelé à une réglementation de l’IA, pour s’assurer qu’elle ne nuise pas à la croissance ou ne devienne pas un risque pour la sécurité nationale, mais aucune mesure n’a encore été prise.
À l’avant-garde de la réglementation de l’IA, l’Union européenne se précipite pour créer un Loi sur l’intelligence artificielle. Cette proposition de loi attribuera trois catégories de risques liés à l’IA :
- les applications et les systèmes qui créent un « risque inacceptable » seront interdits, comme la notation sociale gérée par le gouvernement utilisée en Chine
- les candidatures considérées comme « à haut risque », telles que les outils de numérisation de CV qui classent les candidats à un emploi, seront soumises à des exigences légales spécifiques, et
- toutes les autres applications seront en grande partie non réglementées.
Bien que certains groupes affirment que l’approche de l’UE étouffer l’innovationc’est un élément que l’Australie devrait surveiller de près, car il équilibre l’offre de prévisibilité avec le rythme du développement de l’IA.
L’approche de la Chine en matière d’IA s’est concentrée sur le ciblage d’applications d’algorithmes spécifiques et la rédaction de réglementations qui traitent de leur déploiement dans certains contextes, tels que les algorithmes qui génèrent des informations nuisibles, par exemple. Bien que cette approche offre une spécificité, elle risque d’avoir des règles qui prendront rapidement du retard technologie en évolution.
Les avantages et les inconvénients
Il existe plusieurs arguments à la fois pour et contre le fait de laisser la prudence guider le contrôle de l’IA.
D’une part, l’IA est réputée pour sa capacité à générer toutes les formes de contenu, à gérer les tâches banales et à détecter les cancers, entre autres. D’un autre côté, il peut tromper, perpétuer les préjugés, plagier et, bien sûr, inquiéter certains experts quant à l’avenir collectif de l’humanité. Même le CTO d’OpenAI, Mira Muratia suggéré qu’il devrait y avoir un mouvement vers la réglementation de l’IA.
Certains chercheurs ont fait valoir qu’une réglementation excessive pourrait entraver le plein potentiel de l’IA et interférer avec « destruction créative »— une théorie qui suggère que les normes et les pratiques de longue date doivent être mises de côté pour que l’innovation puisse prospérer.
De même, au fil des années groupes d’entreprises ont plaidé pour une réglementation souple et limitée à des applications ciblées, afin de ne pas entraver la concurrence. Et associations de l’industrie ont appelé à des « orientations » éthiques plutôt qu’à une réglementation, arguant que le développement de l’IA est trop rapide et trop ouvert pour être réglementé de manière adéquate.
Mais les citoyens semblent plaider pour plus de surveillance. Selon les rapports de Bristows et KPMG, environ les deux tiers des australien et Britanique les gens pensent que l’industrie de l’IA devrait être réglementée et tenue responsable.
Et après?
Une pause de six mois sur le développement de systèmes d’IA avancés pourrait offrir un répit bienvenu à une course aux armements en IA qui ne semble tout simplement pas s’arrêter. Cependant, à ce jour, il n’y a eu aucun effort mondial efficace pour réglementer de manière significative l’IA. Partout dans le monde, les efforts ont été fracturés, retardés et globalement laxistes.
Un moratoire mondial serait difficile à appliquer, mais pas impossible. La lettre ouverte soulève des questions sur le rôle des gouvernements, qui ont largement gardé le silence sur les dommages potentiels des outils d’IA extrêmement performants.
Si quelque chose doit changer, les gouvernements et les organismes de réglementation nationaux et supranationaux devront prendre l’initiative d’assurer la responsabilité et la sécurité. Comme le soutient la lettre, les décisions concernant l’IA au niveau sociétal ne devraient pas être entre les mains de « leaders technologiques non élus ».
Les gouvernements devraient donc s’engager avec l’industrie pour co-développer un cadre mondial qui énonce des règles complètes régissant le développement de l’IA. C’est le meilleur moyen de se protéger des impacts nocifs et d’éviter un nivellement par le bas. Cela évite également la situation indésirable où les gouvernements et les géants de la technologie luttent pour dominer l’avenir de l’IA.