Que signifie le licenciement et la réintégration rapide de Sam Altman pour l'avenir de l'IA ?

Que signifie le licenciement et la réintégration rapide de Sam Altman pour l’avenir de l’IA ?

Cela fait une bonne semaine pour OpenAI, créateur de ChatGPT et co-fondateur, Sam Altman.

Altman, qui a aidé à démarrer OpenAI en tant que laboratoire de recherche à but non lucratif en 2015, a été démis de ses fonctions de PDG vendredi dans une sortie soudaine et pour l’essentiel inexpliquée qui a stupéfié l’industrie. Et même si son titre de directeur général a été rapidement rétabli quelques jours plus tard, de nombreuses questions restent en suspens.

Si vous êtes juste en train de rattraper votre retard sur la saga OpenAI et sur les enjeux de l’espace de l’intelligence artificielle dans son ensemble, vous êtes au bon endroit. Voici un aperçu de ce que vous devez savoir.

QUI EST SAM ALTMAN ET COMMENT EST-IL DEVENU CÉLÈBRE ?

Altman est co-fondateur d’OpenAI, la société basée à San Francisco à l’origine de ChatGPT (oui, le chatbot qui semble être partout aujourd’hui, des écoles aux soins de santé).

L’explosion de ChatGPT depuis son arrivée il y a un an a propulsé Altman sous les projecteurs de la commercialisation rapide de l’IA générative, capable de produire de nouvelles images, passages de texte et autres médias. Et alors qu’il est devenu la voix la plus recherchée de la Silicon Valley sur les promesses et les dangers potentiels de cette technologie, Altman a contribué à transformer OpenAI en une startup de renommée mondiale.

Mais sa position chez OpenAI a connu des tournants difficiles dans le tourbillon de la semaine dernière. Altman a été licencié de son poste de PDG vendredi et quelques jours plus tard, il était de retour au travail avec un nouveau conseil d’administration.

Au cours de cette période, Microsoft, qui a investi des milliards de dollars dans OpenAI et détient des droits sur sa technologie existante, a contribué au retour d’Altman, en l’embauchant rapidement ainsi qu’un autre co-fondateur et ancien président d’OpenAI, Greg Brockman, qui a démissionné en signe de protestation après. l’éviction du PDG. Pendant ce temps, des centaines d’employés d’OpenAI ont menacé de démissionner.

Altman et Brockman ont célébré leur retour dans l’entreprise dans des publications sur X, l’ancienne plateforme connue sous le nom de Twitter, mercredi matin.

POURQUOI SON RENVOI ET SA RÉINSTALLATION SONT-ILS IMPORTANTS ?

Il reste beaucoup de choses inconnues sur l’éviction initiale d’Altman. L’annonce de vendredi indiquait qu’il n’était « pas toujours franc dans ses communications » avec le conseil d’administration de l’époque, qui a refusé de fournir des détails plus précis.

Quoi qu’il en soit, la nouvelle a envoyé une onde de choc dans le monde de l’IA et, étant donné qu’OpenAI et Altman sont des acteurs de premier plan dans ce domaine, elle pourrait soulever des problèmes de confiance à l’égard d’une technologie en plein essor sur laquelle de nombreuses personnes se posent encore des questions.

Que signifie le licenciement de Sam Altman – et sa réintégration rapide – pour l'avenir de l'IA ?

« L’épisode OpenAI montre à quel point l’écosystème de l’IA est fragile à l’heure actuelle, notamment en ce qui concerne les risques liés à l’IA », a déclaré Johann Laux, un expert de l’Oxford Internet Institute spécialisé dans la surveillance humaine de l’intelligence artificielle.

Les troubles ont également accentué les différences entre Altman et les membres du précédent conseil d’administration de l’entreprise, qui ont exprimé des points de vue différents sur les risques pour la sécurité posés par l’IA à mesure que la technologie progresse.

Plusieurs experts ajoutent que ce drame montre que ce sont les gouvernements – et non les grandes entreprises technologiques – qui devraient prendre les devants en matière de réglementation de l’IA, en particulier pour les technologies en évolution rapide comme l’IA générative.

« Les événements de ces derniers jours ont non seulement mis en péril la tentative d’OpenAI d’introduire une gouvernance d’entreprise plus éthique dans la gestion de leur entreprise, mais ils montrent également que la gouvernance d’entreprise à elle seule, même si elle est bien intentionnée, peut facilement finir par être cannibalisée par d’autres entreprises. dynamiques et intérêts », a déclaré Enza Iannopollo, analyste principale chez Forrester.

La leçon, selon Iannopollo, est que les entreprises ne peuvent pas, à elles seules, offrir le niveau de sécurité et de confiance dans l’IA dont la société a besoin. « Des règles et des garde-fous, conçus avec les entreprises et appliqués avec rigueur par les régulateurs, sont cruciaux si nous voulons bénéficier de l’IA », a-t-il ajouté.

QU’EST-CE QUE L’IA GÉNÉRATIVE ? COMMENT EST-CE RÉGLEMENTÉ ?

Contrairement à l’IA traditionnelle, qui traite les données et accomplit des tâches en utilisant des règles prédéterminées, l’IA générative (y compris les chatbots comme ChatGPT) peut créer quelque chose de nouveau.

Les entreprises technologiques restent en tête lorsqu’il s’agit de gouverner l’IA et ses risques, tandis que les gouvernements du monde entier s’efforcent de rattraper leur retard.

Dans l’Union européenne, les négociateurs mettent la touche finale à ce qui devrait être la première réglementation globale sur l’IA au monde. Mais ils se seraient enlisés sur la question de savoir si et comment inclure les produits d’IA les plus controversés et les plus révolutionnaires, les modèles commercialisés en grand langage qui sous-tendent les systèmes d’IA génératifs, notamment ChatGPT.

Les chatbots étaient à peine mentionnés lorsque Bruxelles a présenté pour la première fois son premier projet de loi en 2021, axé sur l’IA à des usages spécifiques. Mais les responsables se sont efforcés de trouver comment intégrer ces systèmes, également appelés modèles de base, dans la version finale.

Pendant ce temps, aux États-Unis, le président Joe Biden a signé le mois dernier un décret ambitieux visant à équilibrer les besoins des entreprises technologiques de pointe avec la sécurité nationale et les droits des consommateurs.

Cet ordre – qui devra probablement être renforcé par une action du Congrès – est une première étape visant à garantir que l’IA est fiable et utile, plutôt que trompeuse et destructrice. Il cherche à orienter la manière dont l’IA est développée afin que les entreprises puissent en tirer profit sans mettre en danger la sécurité publique.