Meta dévoile une approche plus prudente de la frénésie ChatGPT

Meta dévoile une approche plus prudente de la frénésie ChatGPT

Meta a dévoilé sa propre version de l’intelligence artificielle derrière des applications telles que ChatGPT.

Le propriétaire de Facebook, Meta, a dévoilé vendredi sa propre version de l’intelligence artificielle derrière des applications telles que ChatGPT, affirmant qu’elle donnerait accès aux chercheurs pour trouver des correctifs aux dangers potentiels de la technologie.

Meta a décrit sa propre IA, appelée LLaMA, comme un modèle « plus petit et plus performant » conçu pour « aider les chercheurs à faire avancer leurs travaux », dans ce qui pourrait être considéré comme une critique voilée de la décision de Microsoft de diffuser largement la technologie, tout en conservant le code de programmation. secret.

ChatGPT, soutenu par Microsoft, a conquis le monde avec sa capacité à générer des textes finement élaborés tels que des essais ou des poèmes en quelques secondes à l’aide d’une technologie connue sous le nom de grands modèles de langage (ou LLM).

LLM fait partie d’un domaine connu sous le nom d’IA générative qui comprend également la capacité d’exécuter des images, des conceptions ou du code de programmation presque instantanément sur une simple demande.

Habituellement, l’acteur le plus stable de la grande technologie, Microsoft a approfondi son partenariat avec OpenAI, le créateur de ChatGPT, et a annoncé plus tôt ce mois-ci que la technologie serait intégrée à son moteur de recherche Bing ainsi qu’au navigateur Edge.

Google, voyant une menace soudaine à la domination de son moteur de recherche, a rapidement annoncé qu’il publierait prochainement sa propre IA linguistique, connue sous le nom de Bard.

Mais les rapports d’échanges inquiétants avec le chatbot Bing de Microsoft, y compris l’émission de menaces et le désir de voler du code nucléaire ou d’attirer un utilisateur à sa femme, sont devenus viraux, sonnant l’alarme que la technologie n’était pas prête.

Meta a déclaré que ces problèmes, parfois appelés hallucinations, pourraient être mieux résolus si les chercheurs avaient un meilleur accès à cette technologie coûteuse.

Des recherches approfondies « restent limitées en raison des ressources nécessaires pour former et exécuter des modèles aussi volumineux », a déclaré la société.

Cela entravait les efforts « pour améliorer leur robustesse et atténuer les problèmes connus, tels que les biais, la toxicité et le potentiel de génération de fausses informations », a déclaré Meta.

OpenAI et Microsoft limitent strictement l’accès à la technologie derrière leurs chatbots, attirant des critiques sur le fait qu’ils choisissent les profits potentiels plutôt que d’améliorer la technologie plus rapidement pour la société.

« En partageant le code de LLaMA, d’autres chercheurs peuvent plus facilement tester de nouvelles approches pour limiter ou éliminer ces problèmes », a déclaré Meta.