créer une superintelligence avec une sécurité « nucléaire »
Le mois de novembre dernier a été le plus tumultueux de l’histoire d’OpenAI. L'entreprise a soudainement licencié son PDG, Sam Altman, mais les événements se sont déroulés et Altman a fini par revenir à son poste quelques jours plus tard. Il y a eu des conséquences, parmi lesquelles le départ d'Ilya Sustkever, co-fondateur et scientifique en chef de l'entreprise. Un mois après son départ, Sutskever vient d'annoncer la création d'une nouvelle société d'IA.
Safe Superintelligence Inc (SSI). C'est le nom de la nouvelle société fondée par Ilya Sutskever, Daniel Gross (qui était partenaire de l'incubateur Y Combinator et qui a travaillé dans la division IA d'Apple) et Daniel Levy, un autre ancien ingénieur OpenAI. La société aura son siège social à Palo Alto (Californie, États-Unis) et à Tel Aviv (Israël). Sutskever et Gross ont tous deux grandi en Israël.
Le défi. L'annonce officielle de l'entreprise surprend tout d'abord par son format, un site Internet absolument minimaliste qui semble presque d'une autre époque. Les fondateurs y expliquent en quoi leur mission correspond exactement à ce que le nom de l'entreprise indique : développer une superintelligence sécurisée. La question est : sécurité, dans quel sens ?
Sécurité nucléaire. Dans une interview sur Bloomberg, Sutskever a expliqué que « par sécurisé, nous entendons sécurisé comme lorsque nous parlons de sécurité nucléaire, par opposition à sécurisé lorsque nous parlons de « confiance et sécurité » », ce qui est le discours que Sam Altman a plus ou moins tenu dans OpenAI ces dernières années.
Sutskever a toujours défendu un développement prudent de l'IA. L'ingénieur était l'un de ceux qui ont favorisé le licenciement de Sam Altman, et toutes les rumeurs indiquaient que ses façons de voir le développement des modèles d'IA d'OpenAI étaient différentes : Altman a toujours défendu la publication des modèles le plus tôt possible, tandis que Sutskever Il semblait beaucoup plus prudent. Après la crise, cependant, il est resté très discret et est à peine apparu lors de l'événement de présentation du GPT-4o.
Investissement quasi assuré malgré un objectif quasiment inatteignable. Le pedigree des fondateurs suggère qu’il ne leur faudra pas longtemps pour lever une grosse somme d’argent lors de cycles d’investissement. Cependant, cela ne signifie pas que l’entreprise réussira : créer une superintelligence – aussi capable que celle d’un être humain, voire plus – semble une tâche insaisissable, même si la recherche d’une AGI est déjà devenue un objectif à la fois d’OpenAI et de Méta, entre autres.
Comment garantir la sécurité ? Même en supposant qu’il soit possible de développer l’AGI ou la superintelligence, ce qui ne semble pas si clair, c’est comment la sécuriser. Sutskever assure qu'il réfléchit à ce même problème depuis des années et qu'il a déjà des idées pour y faire face. Pour lui, « au niveau le plus élémentaire, une superintelligence sûre devrait avoir la propriété de ne pas nuire à l'humanité à grande échelle ». L'idée est raisonnable. Le plus difficile est de le réaliser.
Images | OpenAI
À Simseo | L’essor de l’intelligence artificielle ravive une vieille peur des entreprises américaines : l’espionnage chinois