OpenAI forme un comité de sécurité alors qu'il commence à former le dernier modèle d'intelligence artificielle

OpenAI forme un comité de sécurité alors qu'il commence à former le dernier modèle d'intelligence artificielle

OpenAI indique qu'il met en place un comité de sûreté et de sécurité et a commencé à former un nouveau modèle d'IA pour supplanter le système GPT-4 qui sous-tend son chatbot ChatGPT.

La startup de San Francisco a déclaré mardi dans un article de blog que le comité conseillerait l'ensemble du conseil d'administration sur les « décisions critiques en matière de sûreté et de sécurité » pour ses projets et ses opérations.

Le comité de sécurité arrive alors que le débat tourne autour de la sécurité de l'IA dans l'entreprise, qui a été mise sous les projecteurs après qu'un chercheur, Jan Leike, a démissionné et a critiqué OpenAI pour avoir laissé la sécurité « passer au second plan face aux produits brillants ». Le co-fondateur et scientifique en chef d'OpenAI, Ilya Sutskever, a également démissionné et la société a dissous l'équipe de « superalignement » axée sur les risques liés à l'IA qu'ils dirigeaient conjointement.

OpenAI a déclaré avoir « récemment commencé à former son prochain modèle frontière » et que ses modèles d'IA sont à la pointe de l'industrie en termes de capacité et de sécurité, sans toutefois mentionner la controverse. « Nous nous félicitons d'un débat approfondi à ce moment important », a déclaré la société.

Les modèles d’IA sont des systèmes de prédiction entraînés sur de vastes ensembles de données pour générer à la demande du texte, des images, des vidéos et des conversations de type humain. Les modèles Frontier sont les systèmes d’IA les plus puissants et les plus avancés.

Le comité de sécurité est composé de membres de l'entreprise, dont le PDG d'OpenAI, Sam Altman, et le président Bret Taylor, ainsi que de quatre experts techniques et politiques d'OpenAI. Il comprend également les membres du conseil d'administration Adam D'Angelo, PDG de Quora, et Nicole Seligman, ancienne avocate générale de Sony.

La première tâche du comité sera d'évaluer et de développer davantage les processus et les garanties d'OpenAI et de faire ses recommandations au conseil d'administration dans 90 jours. La société a déclaré qu'elle publierait ensuite publiquement les recommandations qu'elle adopterait « d'une manière compatible avec la sûreté et la sécurité ».