OpenAI lance une IA raisonnée axée sur la sécurité et la précision
Le créateur de ChatGPT, OpenAI, a publié jeudi une nouvelle série de modèles d'intelligence artificielle conçus pour passer plus de temps à réfléchir, dans l'espoir que les chatbots d'IA génératifs fournissent des réponses plus précises et plus bénéfiques.
Les nouveaux modèles, connus sous le nom d'OpenAI o1-Preview, sont conçus pour s'attaquer à des tâches complexes et résoudre des problèmes plus difficiles en sciences, en codage et en mathématiques, ce que les modèles précédents ont été critiqués pour ne pas avoir réussi à fournir de manière cohérente.
Contrairement à leurs prédécesseurs, ces modèles ont été formés pour affiner leurs processus de réflexion, essayer différentes méthodes et reconnaître les erreurs, avant de déployer une réponse finale.
Le PDG d'OpenAI, Sam Altman, a salué les modèles comme « un nouveau paradigme : une IA capable d'effectuer un raisonnement complexe à usage général ».
Il a toutefois averti que la technologie « est encore imparfaite, encore limitée, et qu'elle semble toujours plus impressionnante lors de la première utilisation qu'après y avoir passé plus de temps ».
OpenAI, soutenu par Microsoft, a déclaré que lors des tests, les modèles ont obtenu des résultats comparables à ceux des étudiants en doctorat sur des tâches difficiles en physique, chimie et biologie.
Ils ont également excellé en mathématiques et en codage, obtenant un taux de réussite de 83 % à un examen de qualification pour l'Olympiade internationale de mathématiques, contre 13 % pour le GPT-4o, son modèle d'utilisation générale le plus avancé.
La société a déclaré que les capacités de raisonnement améliorées pourraient être utilisées par les chercheurs en soins de santé pour annoter les données de séquençage cellulaire, par les physiciens pour générer des formules complexes ou par les développeurs informatiques pour créer et exécuter des conceptions en plusieurs étapes.
La société a également déclaré que les modèles avaient survécu à des tests de jailbreak rigoureux et pouvaient mieux résister aux tentatives de contournement de ses garde-fous.
OpenAI a déclaré que ses mesures de sécurité renforcées comprenaient également des accords récents avec les instituts de sécurité de l'IA américains et britanniques, qui ont obtenu un accès anticipé aux modèles à des fins d'évaluation et de test.