Un ancien dirigeant d'OpenAI affirme que la sécurité a « pris le pas sur les produits brillants » de la société d'IA
Un ancien dirigeant d'OpenAI qui a démissionné de l'entreprise plus tôt cette semaine a déclaré vendredi que la sécurité avait « passé au second plan face aux produits brillants » de l'influente société d'intelligence artificielle.
Jan Leike, qui dirigeait l'équipe « Superalignment » d'OpenAI aux côtés d'un cofondateur de l'entreprise qui a également démissionné cette semaine, a écrit dans une série de messages sur la plateforme de médias sociaux X qu'il avait rejoint l'entreprise basée à San Francisco parce qu'il pensait que ce serait le meilleur. meilleur endroit pour faire de la recherche sur l’IA.
« Cependant, je suis en désaccord avec les dirigeants d'OpenAI sur les priorités fondamentales de l'entreprise depuis un certain temps, jusqu'à ce que nous atteignions finalement un point de rupture », a écrit Leike, dont le dernier jour était jeudi.
Chercheur en IA de formation, Leike estime qu'il faudrait se concentrer davantage sur la préparation de la prochaine génération de modèles d'IA, notamment sur des aspects tels que la sécurité et l'analyse des impacts sociétaux de ces technologies. Il a déclaré que construire « des machines plus intelligentes que l'humain est une entreprise intrinsèquement dangereuse » et que l'entreprise « assume une énorme responsabilité au nom de l'humanité toute entière ».
« OpenAI doit devenir une entreprise AGI axée sur la sécurité », a écrit Leike, en utilisant la version abrégée de l'intelligence artificielle générale, une vision futuriste de machines aussi intelligentes que les humains ou du moins capables de faire beaucoup de choses aussi bien que les gens.
Le PDG d'Open AI, Sam Altman, a écrit dans une réponse aux messages de Leike qu'il était « très reconnaissant » des contributions de Leike à l'entreprise et « très triste de le voir partir ».
Leike a « raison, nous avons encore beaucoup à faire ; nous nous engageons à le faire », a déclaré Altman, s'engageant à écrire un article plus long sur le sujet dans les prochains jours.
La société a également confirmé vendredi avoir dissous l'équipe Superalignment de Leike, lancée l'année dernière pour se concentrer sur les risques liés à l'IA, et intégrer les membres de l'équipe dans ses efforts de recherche.
La démission de Leike intervient après que le co-fondateur et scientifique en chef d'OpenAI, Ilya Sutskever, a annoncé mardi qu'il quittait l'entreprise après près d'une décennie. Sutskever était l'un des quatre membres du conseil d'administration l'automne dernier qui ont voté en faveur de l'exclusion d'Altman, pour ensuite le réintégrer rapidement. C'est Sutskever qui a annoncé à Altman en novembre dernier qu'il était licencié, mais il a ensuite déclaré qu'il le regrettait.
Sutskever a déclaré qu'il travaillait sur un nouveau projet qui lui tient à cœur, sans donner de détails supplémentaires. Il sera remplacé par Jakub Pachocki au poste de scientifique en chef. Altman a qualifié Pachocki de « également facilement l'un des plus grands esprits de notre génération » et a déclaré qu'il était « très confiant qu'il nous amènera à progresser rapidement et en toute sécurité vers notre mission consistant à garantir que l'AGI profite à tout le monde ».
Lundi, OpenAI a présenté la dernière mise à jour de son modèle d'intelligence artificielle, capable d'imiter les cadences humaines dans ses réponses verbales et même d'essayer de détecter l'humeur des gens.