OpenAI affirme que l'IA est « suffisamment sûre » alors que les scandales suscitent des inquiétudes

OpenAI affirme que l'IA est « suffisamment sûre » alors que les scandales suscitent des inquiétudes

Le PDG d'OpenAI, Sam Altman, a défendu la technologie d'IA de son entreprise comme étant sûre pour une utilisation généralisée, alors que les inquiétudes grandissent quant aux risques potentiels et au manque de protections appropriées pour les systèmes d'IA de type ChatGPT.

Les remarques d'Altman ont eu lieu lors d'un événement Microsoft à Seattle, où il s'est entretenu avec des développeurs au moment même où une nouvelle controverse éclatait sur une voix OpenAI AI qui ressemblait beaucoup à celle de l'actrice Scarlett Johansson.

Le PDG, qui a acquis une notoriété mondiale après le lancement de ChatGPT par OpenAI en 2022, est également aux prises avec des questions sur la sécurité de l'IA de l'entreprise après le départ de l'équipe chargée d'atténuer les risques à long terme liés à l'IA.

« Mon plus grand conseil est que c'est une période spéciale et profitez-en », a déclaré Altman au public de développeurs cherchant à créer de nouveaux produits utilisant la technologie OpenAI.

« Ce n'est pas le moment de retarder ce que vous envisagez de faire ou d'attendre la prochaine chose », a-t-il ajouté.

OpenAI est un partenaire proche de Microsoft et fournit la technologie de base, principalement le grand modèle de langage GPT-4, pour créer des outils d'IA.

Microsoft a sauté dans le train de l'IA, en proposant de nouveaux produits et en exhortant les utilisateurs à adopter les capacités de l'IA générative.

« Nous tenons pour acquis » que le GPT-4, bien que « loin d'être parfait… est généralement considéré comme suffisamment robuste et suffisamment sûr pour une grande variété d'utilisations », a déclaré Altman.

Altman a insisté sur le fait qu'OpenAI avait déployé « un travail énorme » pour assurer la sécurité de ses modèles.

« Lorsque vous prenez un médicament, vous voulez savoir ce qui sera sûr, et avec notre modèle, vous voulez savoir qu'il sera robuste et qu'il se comportera comme vous le souhaitez », a-t-il ajouté.

Cependant, des questions sur l'engagement d'OpenAI en faveur de la sécurité ont refait surface la semaine dernière lorsque l'entreprise a dissous son groupe « superalignment », une équipe dédiée à atténuer les dangers à long terme de l'IA.

En annonçant son départ, le co-chef de l'équipe Jan Leike a critiqué OpenAI pour avoir donné la priorité aux « nouveaux produits brillants » plutôt qu'à la sécurité dans une série de messages sur X (anciennement Twitter).

« Ces derniers mois, mon équipe a navigué contre le vent », a déclaré Leike.

« Ces problèmes sont assez difficiles à résoudre, et je crains que nous ne soyons pas sur la bonne voie pour y parvenir. »

Cette controverse a été rapidement suivie par une déclaration publique de Johansson, qui a exprimé son indignation face à une voix utilisée par ChatGPT d'OpenAI qui ressemblait à sa voix dans le film « Her » de 2013.

La voix en question, appelée « Sky », a été présentée la semaine dernière dans la sortie du modèle GPT-4o plus humain d'OpenAI.

Dans une brève déclaration mardi, Altman s'est excusée auprès de Johansson mais a insisté sur le fait que sa voix n'était pas basée sur la sienne.