Elon Musk, Andalucía Directo et la crise d'OpenAI ont un point commun inattendu : El Risitas

Avant le licenciement d’Altman, OpenAI a fait une découverte. Celui qui constitue une « menace pour l’humanité »

Le raz-de-marée d’événements que nous avons vécu ces derniers jours avec OpenAI a laissé plusieurs inconnues, mais la plus importante était théoriquement la plus simple à répondre. Pourquoi avez-vous été licencié en premier lieu ? De nouvelles données révèlent désormais une nouvelle théorie.

Menace pour l’humanité. Selon The Information et Reuters, juste avant « l’exil » d’Altman, ses chercheurs ont écrit une lettre au conseil l’avertissant qu’ils avaient fait une découverte importante. Une situation qui, selon des sources proches des événements, « pourrait menacer l’humanité ».

Un motif de licenciement supplémentaire. Ces sources indiquent que cette lettre et le nouvel algorithme d’IA qui y est évoqué ont fini par devenir l’une des raisons de la décision que le conseil d’administration prendrait plus tard, qui a licencié Altman et forcé la démission de Brockman.

Développement sûr ou gain d’argent. Au sein de ce conseil, des inquiétudes ont été exprimées quant à la tendance à commercialiser ces avancées sans comprendre leurs conséquences potentielles. Chez OpenAI, ils ont confirmé dans un message interne au personnel qu’il existait un projet appelé « Q* » (prononcé « Q star ») et qu’une lettre avait été écrite pour avertir de ses implications potentielles. L’information souligne que la personne qui a dirigé ce projet était Ilya Sutskever, scientifique en chef chez OpenAI et l’un des architectes du licenciement d’Altman.

Une étape potentielle vers l’AGI. Selon des sources internes, certains employés d’OpenAI pensent que Q* pourrait être un tournant dans la réalisation de ce que l’on appelle l’intelligence artificielle générale (AGI), c’est-à-dire un système d’IA qui, selon l’entreprise, surpasserait les humains dans tous les domaines. tâches ayant une valeur économique.

Résoudre le calcul. En lui donnant d’énormes ressources de calcul, le nouveau modèle Q* a pu résoudre plusieurs problèmes mathématiques. Même si les résultats en mathématiques étaient similaires à ceux des élèves du primaire, les chercheurs d’OpenAI étaient particulièrement optimistes quant à l’avenir de Q*.

Au-delà du « perroquet stochastique ». En apprentissage automatique, ChatGPT et ses concurrents sont décrits comme des « perroquets stochastiques » : ils sont basés sur de grands modèles linguistiques (LLM) qui sont efficaces pour générer du texte, mais ne comprennent pas réellement le sens du texte qu’ils traitent. Contrairement à ces réalisations, avec Q*, une nouvelle étape est proposée dans le développement de modèles d’IA génératifs. Celui qui pourrait commencer à imiter le raisonnement et l’intelligence humains.

Mais ça pourrait être très dangereux. Dans leur lettre au conseil, les chercheurs ont qualifié ce développement de danger potentiel, bien qu’ils n’aient pas précisé les risques dans cette lettre. Ils ont également parlé des travaux développés par un autre groupe de recherche en IA qui explorait comment optimiser les modèles d’IA existants pour améliorer leur raisonnement et finir par accomplir des tâches scientifiques.

Altman l’a mentionné… et a été viré. Lors d’un récent événement à San Francisco, le Sommet de coopération économique Asie-Pacifique, Altman a laissé entendre qu’il pensait que de grands progrès se profilaient à l’horizon dans ce domaine. « Cuatro veces en la historia de OpenAI, la última en las dos últimas semanas, he tenido la oportunidad de estar en la sala en la que dejo atrás el velo de la ignorancia y la frontera del descubrimiento delante, y poder hacerlo es un honor profesional dans ma vie ».

Un jour plus tard, le conseil d’administration a licencié Altman.