Sutskever, co-fondateur d'OpenAI, crée une nouvelle société d'IA dédiée à la « superintelligence sûre »

Sutskever, co-fondateur d'OpenAI, crée une nouvelle société d'IA dédiée à la « superintelligence sûre »

Ilya Sutskever, l'un des fondateurs d'OpenAI qui a participé à une tentative infructueuse visant à évincer le PDG Sam Altman, a déclaré qu'il créait une société d'intelligence artificielle axée sur la sécurité.

Sutskever, un chercheur respecté en IA qui a quitté le créateur de ChatGPT le mois dernier, a déclaré mercredi dans un article sur les réseaux sociaux qu'il avait créé Safe Superintelligence Inc. avec deux co-fondateurs. Le seul objectif et objectif de l'entreprise est de développer en toute sécurité la « superintelligence », une référence aux systèmes d'IA qui sont plus intelligents que les humains.

L'entreprise s'est engagée à ne pas se laisser distraire par « les frais généraux de gestion ou les cycles de produits », et selon son modèle commercial, le travail sur la sûreté et la sécurité serait « à l'abri des pressions commerciales à court terme », ont déclaré Sutskever et ses co-fondateurs Daniel Gross et Daniel Levy. a déclaré dans un communiqué préparé.

Les trois ont déclaré que Safe Superintelligence est une société américaine basée à Palo Alto, en Californie, et à Tel Aviv, « où nous avons des racines profondes et la capacité de recruter les meilleurs talents techniques ».

Sutskever faisait partie d'un groupe qui a tenté sans succès l'année dernière d'évincer Altman. Le remaniement de la salle de conférence, que Sutskever a déclaré plus tard regretter, a également conduit à une période de troubles internes centrés sur la question de savoir si les dirigeants d'OpenAI donnaient la priorité aux opportunités commerciales plutôt qu'à la sécurité de l'IA.

Chez OpenAI, Sutskever a dirigé conjointement une équipe axée sur le développement en toute sécurité d’une IA meilleure que l’humain, connue sous le nom d’intelligence générale artificielle, ou AGI. Lorsqu'il a quitté OpenAI, il a déclaré qu'il avait des projets pour un projet « très significatif sur le plan personnel », mais n'a donné aucun détail.

Sutskever a déclaré que c'était son choix de quitter OpenAI.

Quelques jours après son départ, son co-chef d'équipe Jan Leike a également démissionné et a critiqué OpenAI pour avoir laissé la sécurité « passer au second plan face à des produits brillants ». OpenAI a annoncé plus tard la formation d'un comité de sûreté et de sécurité, mais celui-ci est composé principalement d'initiés de l'entreprise.