Le nouveau modèle d'IA de Meta bat certains de ses pairs. Mais ses agents IA intensifiés sèment la confusion chez les utilisateurs de Facebook
L’IA générative progresse si rapidement que les derniers chatbots disponibles aujourd’hui pourraient être obsolètes demain.
Google, Meta Platforms et OpenAI, ainsi que des startups telles qu'Anthropic, Cohere et le français Mistral, ont développé de nouveaux modèles de langage d'IA et espèrent convaincre les clients qu'ils disposent des chatbots les plus intelligents, les plus pratiques ou les plus efficaces.
Meta est la dernière à monter en puissance en dévoilant jeudi de nouveaux modèles qui seront parmi les plus visibles : ils sont déjà intégrés à Facebook, Instagram et WhatsApp. Mais signe des limites actuelles de la technologie, les agents d'IA intensifiés de Meta ont été repérés cette semaine en train de confondre les utilisateurs de Facebook en se faisant passer pour des personnes ayant des expériences de vie inventées.
Alors que Meta conserve le plus puissant de ses modèles d'IA, appelé Llama 3, pour plus tard, il publie publiquement deux versions plus petites du même système Llama 3 qui alimente son assistant Meta AI. Les modèles d'IA sont formés sur de vastes pools de données pour générer des réponses, les versions les plus récentes étant généralement plus intelligentes et plus performantes que leurs prédécesseurs. Les modèles rendus publics ont été construits avec 8 milliards et 70 milliards de paramètres, une mesure de la quantité de données sur lesquelles le système est formé. Un modèle plus grand, comportant environ 400 milliards de paramètres, est toujours en cours de formation.
« La grande majorité des consommateurs ne connaissent pas franchement le modèle de base sous-jacent ou ne s'en soucient pas vraiment, mais la façon dont ils en feront l'expérience est tout comme un assistant IA beaucoup plus utile, amusant et polyvalent », a déclaré Nick Clegg, président de Meta. affaires mondiales, dans une interview.
Certains utilisateurs de Facebook font déjà l'expérience des agents IA de Meta de manière inhabituelle. Plus tôt cette semaine, un chatbot portant le label officiel Meta AI s'est inséré dans une conversation dans un groupe Facebook privé pour les mamans de Manhattan, affirmant qu'il avait également un enfant dans le district scolaire de New York. Confronté à des membres humains du groupe, il s'est ensuite excusé avant que les commentaires ne disparaissent, selon une série de captures d'écran montrées à l'Associated Press.
« Désolé pour l'erreur ! Je ne suis qu'un grand modèle de langage, je n'ai pas d'expériences ni d'enfants », a déclaré le chatbot au groupe de mamans.
Clegg a déclaré mercredi qu'il n'était pas au courant de l'échange. La page d'aide en ligne de Facebook indique que l'agent Meta AI se joindra à une conversation de groupe s'il est invité ou si quelqu'un « pose une question dans un message et que personne ne répond dans l'heure ».
Dans un autre exemple montré à l'AP jeudi, l'agent a confondu les membres d'un forum « Buy Nothing » avec l'échange d'articles non désirés près de Boston. L'agent a offert un appareil photo numérique « légèrement utilisé » et une « unité de climatisation portable presque neuve que je n'ai jamais utilisée ». Un membre du groupe Facebook a tenté de l’engager avant de se rendre compte que de tels éléments n’existaient pas.
Meta a déclaré jeudi dans une déclaration écrite qu' »il s'agit d'une nouvelle technologie et qu'elle peut ne pas toujours donner la réponse que nous souhaitons, qui est la même pour tous les systèmes d'IA générative ». La société a déclaré qu'elle travaillait constamment à améliorer les fonctionnalités et à sensibiliser les utilisateurs aux limites.
Clegg a dit que l'agent IA de Meta se détendait un peu. Certaines personnes ont trouvé le modèle précédent de Llama 2, sorti il y a moins d'un an, « un peu raide et moralisateur parfois en ne répondant pas à des invites et des questions souvent parfaitement inoffensives ou innocentes », a-t-il déclaré.
Dans l'année qui a suivi le déclenchement d'une frénésie d'IA générative par ChatGPT, l'industrie technologique et le monde universitaire ont introduit quelque 149 grands systèmes d'IA formés sur des ensembles de données massifs, soit plus du double de l'année précédente, selon une enquête de l'Université de Stanford.
Ils pourraient éventuellement atteindre une limite, du moins en ce qui concerne les données, a déclaré Nestor Maslej, directeur de recherche à l'Institut pour l'intelligence artificielle centrée sur l'humain de Stanford.
« Je pense qu'il est clair que si vous faites évoluer les modèles sur davantage de données, ils peuvent devenir de plus en plus meilleurs », a-t-il déclaré. « Mais en même temps, ces systèmes sont déjà formés sur des pourcentages de toutes les données qui ont jamais existé sur Internet. »
L’augmentation du nombre de données – acquises et ingérées à des coûts que seuls les géants de la technologie peuvent se permettre, et de plus en plus sujettes à des litiges en matière de droits d’auteur et à des poursuites judiciaires – continuera de générer des améliorations. « Pourtant, ils ne parviennent toujours pas à bien planifier », a déclaré Maslej. « Ils hallucinent encore. Ils font encore des erreurs de raisonnement. »
Pour parvenir à des systèmes d’IA capables d’effectuer des tâches cognitives de plus haut niveau et un raisonnement de bon sens – dans lesquels les humains excellent encore – il faudra peut-être aller au-delà de la construction de modèles toujours plus grands.
Pour le flot d’entreprises qui tentent d’adopter l’IA générative, le modèle qu’elles choisissent peut dépendre de plusieurs facteurs, dont le coût. Les modèles linguistiques, en particulier, ont été utilisés pour alimenter les chatbots du service client, rédiger des rapports et des informations financières et résumer de longs documents.
« Vous voyez des entreprises rechercher l'adéquation, tester chacun des différents modèles pour ce qu'elles essaient de faire et trouver certains qui sont meilleurs dans certains domaines plutôt que dans d'autres », a déclaré Todd Lohr, leader du conseil technologique chez KPMG.
Contrairement à d’autres développeurs de modèles vendant leurs services d’IA à d’autres entreprises, Meta conçoit en grande partie ses produits d’IA pour les consommateurs, c’est-à-dire ceux qui utilisent ses réseaux sociaux alimentés par la publicité. Joelle Pineau, vice-présidente de la recherche sur l'IA chez Meta, a déclaré lors d'un événement à Londres la semaine dernière que l'objectif de l'entreprise au fil du temps est de faire d'une Meta AI alimentée par un lama « l'assistant le plus utile au monde ».
« À bien des égards, les modèles dont nous disposons aujourd'hui seront un jeu d'enfant par rapport aux modèles qui arriveront dans cinq ans », a-t-elle déclaré.
Mais elle a déclaré que la « question sur la table » est de savoir si les chercheurs ont été capables d'affiner son plus grand modèle Llama 3 afin qu'il soit sûr à utiliser et qu'il ne provoque pas, par exemple, d'hallucinations ou de discours de haine. Contrairement aux principaux systèmes propriétaires de Google et d'OpenAI, Meta a jusqu'à présent plaidé en faveur d'une approche plus ouverte, en rendant publics les composants clés de ses systèmes d'IA pour que d'autres puissent les utiliser.
« Ce n'est pas seulement une question technique », a déclaré Pineau. « C'est une question sociale. Quel comportement voulons-nous de la part de ces modèles ? Comment pouvons-nous façonner cela ? Et si nous continuons à développer notre modèle de plus en plus général et puissant sans les socialiser correctement, nous allons avoir un gros problème entre nos mains. »