L’IA illustre le problème du « passager clandestin » – voici pourquoi cela pointe vers la réglementation
Crédit : Pixabay/CC0 Domaine public
Le 22 mars 2023, des milliers de chercheurs et de leaders technologiques, dont Elon Musk et le cofondateur d’Apple, Steve Wozniak, ont publié une lettre ouverte appelant à ralentir la course à l’intelligence artificielle. Plus précisément, la lettre recommandait aux laboratoires de suspendre la formation aux technologies plus puissantes que le GPT-4 d’OpenAI, la génération la plus sophistiquée des systèmes d’IA générateurs de langage d’aujourd’hui, pendant au moins six mois.
Sonner l’alarme sur les risques posés par l’IA n’est pas nouveau – les universitaires ont émis des avertissements sur les risques des machines super intelligentes depuis des décennies maintenant. Il n’y a toujours pas de consensus sur la probabilité de créer une intelligence générale artificielle, des systèmes d’IA autonomes qui égalent ou dépassent les humains dans la plupart des tâches économiquement valables. Cependant, il est clair que les systèmes d’IA actuels présentent déjà de nombreux dangers, des préjugés raciaux dans la technologie de reconnaissance faciale à la menace accrue de désinformation et de tricherie des étudiants.
Bien que la lettre appelle l’industrie et les décideurs politiques à coopérer, il n’existe actuellement aucun mécanisme pour imposer une telle pause. En tant que philosophe qui étudie l’éthique de la technologie, j’ai remarqué que la recherche sur l’IA illustre le « problème du passager clandestin ». Je dirais que cela devrait guider la façon dont les sociétés réagissent à ses risques – et que les bonnes intentions ne suffiront pas.
Rouler gratuitement
Le parasitisme est une conséquence courante de ce que les philosophes appellent les « problèmes d’action collective ». Ce sont des situations dans lesquelles, en tant que groupe, tout le monde bénéficierait d’une action particulière, mais en tant qu’individus, chaque membre gagnerait à ne pas le faire.
Ces problèmes concernent le plus souvent les biens publics. Par exemple, supposons que les habitants d’une ville aient un intérêt collectif à financer un système de métro, ce qui exigerait que chacun d’eux paie un petit montant par le biais de taxes ou de tarifs. Tout le monde en profiterait, mais il est dans l’intérêt de chacun d’économiser de l’argent et d’éviter de payer sa juste part. Après tout, ils pourront toujours profiter du métro si la plupart des autres personnes paient.
D’où le problème du « passager clandestin » : certaines personnes ne contribueront pas leur juste part, mais bénéficieront tout de même d’un « trajet gratuit » — littéralement, dans le cas du métro. Si chaque individu ne payait pas, cependant, personne n’en profiterait.
Les philosophes ont tendance à affirmer qu’il est contraire à l’éthique de « faire du free ride », puisque les free riders ne rendent pas la pareille aux autres qui paient leur juste part. De nombreux philosophes soutiennent également que les resquilleurs manquent à leurs responsabilités dans le cadre du contrat social, les principes coopératifs convenus collectivement qui régissent une société. En d’autres termes, ils manquent à leur devoir d’être des membres actifs de la société.
Appuyer sur pause ou aller de l’avant ?
Comme le métro, l’IA est un bien public, compte tenu de son potentiel à accomplir des tâches beaucoup plus efficacement que les opérateurs humains : du diagnostic des patients en analysant les données médicales à la prise en charge d’emplois à haut risque dans l’armée ou à l’amélioration de la sécurité minière.
Mais ses avantages et ses dangers affecteront tout le monde, même les personnes qui n’utilisent pas personnellement l’IA. Pour réduire les risques de l’IA, tout le monde a intérêt à ce que la recherche de l’industrie soit menée avec soin, en toute sécurité et avec une surveillance et une transparence appropriées. Par exemple, la désinformation et les fausses nouvelles constituent déjà de sérieuses menaces pour les démocraties, mais l’IA a le potentiel d’exacerber le problème en diffusant les « fausses nouvelles » plus rapidement et plus efficacement que les gens ne le peuvent.
Même si certaines entreprises technologiques arrêtaient volontairement leurs expériences, d’autres entreprises auraient un intérêt financier à poursuivre leurs propres recherches sur l’IA, ce qui leur permettrait de prendre de l’avance dans la course aux armements de l’IA. De plus, la suspension volontaire des expériences d’IA permettrait à d’autres entreprises d’obtenir un tour gratuit en récoltant éventuellement les avantages d’un développement d’IA plus sûr et plus transparent, avec le reste de la société.
Sam Altman, PDG d’OpenAI, a reconnu que l’entreprise avait peur des risques posés par son système de chatbot, ChatGPT. « Nous devons être prudents ici », a-t-il déclaré dans une interview à ABC News, mentionnant le potentiel de l’IA à produire de la désinformation. « Je pense que les gens devraient être heureux que nous ayons un peu peur de cela. »
Dans une lettre publiée le 5 avril 2023, OpenAI a déclaré que la société estime que les systèmes d’IA puissants ont besoin d’une réglementation pour garantir des évaluations de sécurité approfondies et qu’elle « s’engagerait activement avec les gouvernements sur la meilleure forme que cette réglementation pourrait prendre ». Néanmoins, OpenAI poursuit le déploiement progressif de GPT-4, et le reste de l’industrie continue également de développer et de former des IA avancées.
Mûr pour la réglementation
Des décennies de recherche en sciences sociales sur les problèmes d’action collective ont montré que là où la confiance et la bonne volonté sont insuffisantes pour éviter les resquilleurs, la réglementation est souvent la seule alternative. La conformité volontaire est le facteur clé qui crée des scénarios de passager clandestin – et l’action du gouvernement est parfois le moyen de l’étouffer dans l’œuf.
En outre, ces réglementations doivent être exécutoires. Après tout, il est peu probable que les futurs usagers du métro paient le prix à moins qu’il n’y ait une menace de punition.
Prenons l’un des problèmes de passager clandestin les plus dramatiques au monde aujourd’hui : le changement climatique. En tant que planète, nous avons tous un intérêt majeur à maintenir un environnement habitable. Dans un système qui autorise les passagers clandestins, cependant, les incitations pour un pays à suivre des directives plus écologiques sont minces.
L’Accord de Paris, qui est actuellement l’accord mondial le plus global sur le changement climatique, est volontaire et les Nations Unies n’ont aucun recours pour le faire respecter. Même si l’Union européenne et la Chine limitaient volontairement leurs émissions, par exemple, les États-Unis et l’Inde pourraient « free ride » sur la réduction du dioxyde de carbone tout en continuant à émettre.
Défi mondial
De même, le problème du passager clandestin fonde des arguments pour réguler le développement de l’IA. En fait, le changement climatique est un parallèle particulièrement étroit, puisque ni les risques posés par l’IA ni les émissions de gaz à effet de serre ne sont limités au pays d’origine d’un programme.
De plus, la course pour développer une IA plus avancée est internationale. Même si les États-Unis introduisaient une réglementation fédérale sur la recherche et le développement de l’IA, la Chine et le Japon pourraient rouler librement et poursuivre leurs propres programmes nationaux d’IA.
Une réglementation et une application efficaces de l’IA nécessiteraient une action et une coopération collectives à l’échelle mondiale, tout comme pour le changement climatique. Aux États-Unis, une application stricte nécessiterait une surveillance fédérale de la recherche et la capacité d’imposer de lourdes amendes ou d’arrêter des expériences d’IA non conformes pour assurer un développement responsable, que ce soit par le biais de conseils de surveillance réglementaire, de protections des lanceurs d’alerte ou, dans des cas extrêmes, de fermetures de laboratoires ou de recherche. et des accusations criminelles.
Sans application de la loi, cependant, il y aura des passagers clandestins – et les passagers clandestins signifient que la menace de l’IA ne diminuera pas de si tôt.