La tourmente chez OpenAI montre que nous devons nous demander si les développeurs d’IA peuvent s’autoréguler
OpenAI, développeur de ChatGPT et innovateur de premier plan dans le domaine de l’intelligence artificielle (IA), a récemment été plongé dans la tourmente lorsque son directeur général et figure de proue, Sam Altman, a été limogé. Lorsqu’il a été révélé qu’il rejoindrait l’équipe de recherche avancée sur l’IA de Microsoft, plus de 730 employés d’OpenAI ont menacé de démissionner. Finalement, il a été annoncé que la plupart des membres du conseil d’administration qui avaient mis fin à l’emploi d’Altman étaient remplacés et qu’il reviendrait dans l’entreprise.
En arrière-plan, des débats animés ont eu lieu au sein d’OpenAI concernant la sécurité de l’IA. Cela met non seulement en évidence les complexités de la gestion d’une entreprise technologique de pointe, mais sert également de microcosme à des débats plus larges autour de la réglementation et du développement sûr des technologies d’IA.
Les grands modèles de langage (LLM) sont au cœur de ces discussions. Les LLM, la technologie derrière les chatbots IA tels que ChatGPT, sont exposés à de vastes ensembles de données qui les aident à améliorer ce qu’ils font – un processus appelé formation. Cependant, la nature à double tranchant de ce processus de formation soulève des questions cruciales sur l’équité, la confidentialité et l’utilisation abusive potentielle de l’IA.
Les données de formation reflètent à la fois la richesse et les biais des informations disponibles. Ces préjugés peuvent refléter des conceptions sociales injustes et conduire à de graves discriminations, à la marginalisation de groupes vulnérables ou à une incitation à la haine ou à la violence.
Les ensembles de données de formation peuvent être influencés par des biais historiques. Par exemple, en 2018, Amazon aurait abandonné un algorithme de recrutement qui pénalisait les femmes, apparemment parce que ses données de formation étaient composées en grande partie de candidats masculins.
Les LLM ont également tendance à présenter des performances différentes selon les groupes sociaux et les différentes langues. Il y a plus de données de formation disponibles en anglais que dans d’autres langues, les LLM parlent donc plus couramment l’anglais.
Peut-on faire confiance aux entreprises ?
Les LLM présentent également un risque d’atteinte à la vie privée puisqu’ils absorbent d’énormes quantités d’informations puis les reconstituent. Par exemple, s’il y a des données privées ou des informations sensibles dans les données de formation des LLM, ils peuvent « se souvenir » de ces données ou faire d’autres déductions basées sur celles-ci, conduisant éventuellement à la fuite de secrets commerciaux, à la divulgation de diagnostics de santé ou à la fuite d’autres types d’informations privées.
Les LLM peuvent même permettre des attaques de pirates informatiques ou de logiciels nuisibles. Les attaques par injection rapide utilisent des instructions soigneusement conçues pour obliger le système d’IA à faire quelque chose qu’il n’est pas censé faire, conduisant potentiellement à un accès non autorisé à une machine ou à une fuite de données privées. Comprendre ces risques nécessite un examen plus approfondi de la manière dont ces modèles sont formés, des biais inhérents à leurs données de formation et des facteurs sociétaux qui façonnent ces données.
Le drame d’OpenAI a soulevé des inquiétudes quant à l’avenir de l’entreprise et déclenché des discussions sur la réglementation de l’IA. Par exemple, peut-on faire confiance aux entreprises dont les dirigeants ont des approches très différentes en matière de développement de l’IA pour s’autoréglementer ?
Le rythme rapide auquel la recherche sur l’IA se transforme en applications concrètes met en évidence la nécessité de cadres plus robustes et plus étendus pour gouverner le développement de l’IA et garantir que les systèmes sont conformes aux normes éthiques.
Quand un système d’IA est-il « suffisamment sûr » ?
Mais quelle que soit l’approche adoptée en matière de réglementation, des défis subsistent. Pour la recherche LLM, le temps de transition entre la recherche et le développement et le déploiement d’une application peut être court. Cela rend plus difficile pour les régulateurs tiers de prévoir et d’atténuer efficacement les risques. De plus, le seuil de compétence technique élevé et les coûts de calcul requis pour former les modèles ou les adapter à des tâches spécifiques compliquent encore davantage la surveillance.
Cibler la recherche et la formation précoces en LLM peut être plus efficace pour faire face à certains risques. Cela aiderait à remédier à certains des dommages causés par les données de formation. Mais il est également important d’établir des critères de référence : par exemple, quand un système d’IA est-il considéré comme « suffisamment sûr » ?
La norme de performance « suffisamment sûre » peut dépendre du domaine dans lequel elle est utilisée, avec des exigences plus strictes dans les domaines à haut risque tels que les algorithmes du système de justice pénale ou le recrutement.
À mesure que les technologies d’IA, en particulier les LLM, sont de plus en plus intégrées dans différents aspects de la société, il devient impératif de s’attaquer à leurs risques et préjugés potentiels. Cela implique une stratégie à multiples facettes qui comprend l’amélioration de la diversité et de l’équité des données de formation, la mise en œuvre de protections efficaces de la vie privée et la garantie d’une utilisation responsable et éthique de la technologie dans différents secteurs de la société.
Les prochaines étapes de ce parcours impliqueront probablement une collaboration entre les développeurs d’IA, les organismes de réglementation et un échantillon diversifié du grand public pour établir des normes et des cadres.
La situation d’OpenAI, bien que difficile et pas entièrement édifiante pour l’industrie dans son ensemble, présente également une opportunité pour l’industrie de la recherche en IA de se remettre en question longuement et sérieusement et d’innover de manière à donner la priorité aux valeurs humaines et au bien-être sociétal. .
