Des chercheurs cherchent à réduire les dommages causés aux utilisateurs multiculturels d'assistants vocaux

Apple pèse en utilisant Anthropic ou Openai pour alimenter Siri dans une inversion majeure

Apple Inc. envisage d'utiliser la technologie de l'intelligence artificielle à partir de PBC anthropique ou OpenAI pour alimenter une nouvelle version de Siri, mettez la touche de ses propres modèles internes dans un mouvement potentiellement blockbuster visant à renverser son effort d'IA de fuite.

Le fabricant d'iPhone a parlé avec les deux sociétés de l'utilisation de ses grands modèles de langue pour Siri, selon des personnes familières avec les discussions. Il leur a demandé de former des versions de leurs modèles qui pourraient fonctionner sur l'infrastructure cloud d'Apple pour les tests, ont déclaré les gens, qui ont demandé à ne pas être identifiés, discutant des délibérations privées.

Si Apple avance finalement, il représenterait un renversement monumental. La société alimente actuellement la plupart de ses fonctionnalités d'IA avec une technologie locale qu'elle appelle les modèles de fondation Apple et avait planifié une nouvelle version de son assistant vocal qui fonctionne sur cette technologie pour 2026.

Un passage aux modèles Chatgpt d'Anthropic Claude ou d'Openai pour Siri serait une reconnaissance que l'entreprise a du mal à rivaliser dans l'IA générative – la nouvelle technologie la plus importante depuis des décennies. Apple permet déjà à Chatgpt de répondre aux requêtes de recherche sur le Web dans Siri, mais l'assistant lui-même est alimenté par Apple.

L'enquête d'Apple sur les modèles tiers est à un stade précoce, et la société n'a pas pris de décision finale sur les utiliser, ont déclaré les gens. Un projet concurrent surnommé LLM Siri qui utilise des modèles internes reste en développement actif.

Faire un changement – qui est en discussion pour l'année prochaine – pourrait permettre à Apple de Cupertino, en Californie, d'offrir des fonctionnalités Siri à égalité avec les assistants d'IA sur les téléphones Android, aidant la société à éliminer sa réputation de lagge d'IA.

Les représentants d'Apple, Anthropic et Openai ont refusé de commenter. Les actions d'Apple ont clôturé plus de 2% après que Bloomberg a rapporté les délibérations.

Siri se débat

Le projet visant à évaluer les modèles externes a été lancé par le chef de Siri Mike Rockwell et le chef du génie logiciel Craig Federighi. Ils ont reçu la surveillance de Siri après que les fonctions ont été retirées du commandement de John Giannandrea, le chef de l'IA de la société. Il a été mis à l'écart à la suite d'une réponse tiède à Apple Intelligence et aux retards de caractéristiques Siri.

Rockwell, qui a précédemment lancé le casque Vision Pro, a assumé le rôle d'ingénierie Siri en mars. Après avoir pris le relais, il a demandé à son nouveau groupe d'évaluer si Siri ferait un meilleur travail de gestion des requêtes en utilisant les modèles d'IA d'Apple ou la technologie tiers, notamment Claude, Chatgpt et Google Gemini d'Alphabet Inc.

Après plusieurs séries de tests, Rockwell et d'autres dirigeants ont conclu que la technologie d'Anthropic était la plus prometteuse pour les besoins de Siri, ont déclaré les gens. Cela a conduit Adrian Perica, vice-président du développement d'entreprise de la société, pour commencer les discussions avec Anthropic sur l'utilisation de Claude, ont déclaré les gens.

L'assistant Siri – publié en originalement en 2011 – a pris du retard sur les chatbots d'IA populaires, et les tentatives d'Apple de mettre à niveau le logiciel ont été bloquées par des accrocs et des retards d'ingénierie.

Il y a un an, Apple a dévoilé de nouvelles capacités Siri, y compris celles qui le permettraient de puiser dans les données personnelles des utilisateurs et d'analyser le contenu à l'écran pour mieux répondre aux requêtes. La société a également démontré une technologie qui permettrait à Siri de contrôler plus précisément les applications et les fonctionnalités sur les appareils Apple.

Les améliorations étaient loin d'être prêtes. Apple a initialement annoncé des plans pour une sortie au début de 2025, mais a finalement retardé le lancement indéfiniment. Ils sont maintenant prévus pour le printemps prochain, a rapporté Bloomberg News.

Incertitude de l'IA

Les personnes ayant connaissance de l'équipe d'IA d'Apple disent qu'elle fonctionne avec un haut degré d'incertitude et un manque de clarté, les cadres se déplaçaient toujours sur un certain nombre de directions possibles. Apple a déjà approuvé un budget de plusieurs milliards de dollars pour 2026 pour avoir géré ses propres modèles via le cloud, mais ses plans au-delà de ceux qui restent troubles.

Pourtant, Federighi, Rockwell et d'autres dirigeants sont de plus en plus ouverts à l'idée que l'adoption de la technologie extérieure est la clé d'un revirement à court terme. Ils ne voient pas la nécessité pour Apple de s'appuyer sur ses propres modèles – qu'ils considèrent actuellement inférieurs – lorsqu'ils peuvent s'associer à des tiers à la place, selon les gens.

Les licences tierces IA refléteraient une approche adoptée par Samsung Electronics Co. Alors que la société marque ses fonctionnalités sous l'égide de Galaxy AI, bon nombre de ses fonctionnalités sont en fait basées sur les Gémeaux. Anthropic, pour sa part, est déjà utilisé par Amazon.com Inc. pour aider à alimenter le nouvel Alexa +.

À l'avenir, si sa propre technologie s'améliore, les dirigeants pensent qu'Apple devrait avoir la propriété des modèles d'IA compte tenu de leur importance croissante pour le fonctionnement des produits. L'entreprise travaille sur une série de projets, y compris un robot de table et des lunettes qui feront un usage intensif de l'IA.

Apple a également récemment envisagé d'acquérir une perplexité afin de renforcer son travail d'IA, a rapporté Bloomberg. Il a également eu des discussions brièvement avec Thinking Machines Lab, la startup de l'IA fondée par l'ancien directeur de la technologie OpenAI, Mira Murati.

Moral aigre

Les modèles d'Apple sont développés par une équipe d'environ 100 personnes dirigée par Ruoming Pang, un ingénieur distingué Apple qui a rejoint Google en 2021 pour diriger ces travaux. Il relève de Daphne Luong, directrice principale en charge de la recherche sur l'IA.

Luong est l'un des meilleurs lieutenants de Giannandrea, et l'équipe des modèles de la Fondation est l'un des rares groupes d'IA importants qui relèvent toujours de Giannandrea. Même dans ce domaine, Federighi et Rockwell ont joué un rôle plus important.

Indépendamment du chemin nécessaire, le changement proposé a pesé sur l'équipe, qui a certains des talents les plus demandés de l'industrie de l'IA.

Certains membres ont indiqué en interne qu'ils sont mécontents que l'entreprise envisage la technologie d'un tiers, créant la perception qu'ils sont à blâmer, au moins en partie, pour les lacunes d'IA de l'entreprise. Ils ont dit qu'ils pouvaient partir pour des forfaits de plusieurs millions de dollars flottés par Meta Platforms Inc. et Openai.

Meta, le propriétaire de Facebook et Instagram, a proposé à certains ingénieurs des forfaits de rémunération annuels entre 10 et 40 millions de dollars – ou même plus – pour rejoindre son nouveau groupe de laboratoires SuperIntelligence, selon des personnes ayant connaissance de la question. Apple est connu, dans de nombreux cas, de payer ses ingénieurs d'IA à moitié – ou même moins – que ce qu'ils peuvent obtenir sur le marché libre.

L'un des chercheurs de modèles de grande langue les plus seniors d'Apple, Tom Gunter, est parti la semaine dernière. Il a travaillé chez Apple depuis environ huit ans, et certains collègues le considèrent comme difficile à remplacer étant donné ses compétences uniques et la volonté des concurrents d'Apple de payer exponentiellement plus pour les talents.

Apple ce mois-ci a également presque perdu l'équipe derrière MLX, son système open source clé pour développer des modèles d'apprentissage automatique sur les dernières puces Apple. Après que les ingénieurs ont menacé de partir, Apple a fait des contre-offres pour les conserver – et ils restent pour l'instant.

Discussions anthropiques et openai

Dans ses discussions avec Anthropic et OpenAI, le fabricant d'iPhone a demandé une version personnalisée de Claude et Chatgpt qui pourrait fonctionner sur les serveurs de calcul en cloud privé d'Apple – l'infrastructure basée sur des puces Mac haut de gamme que la société utilise actuellement pour exploiter ses modèles en interne plus sophistiqués.

Apple estime que l'exécution des modèles sur ses propres puces hébergées dans des serveurs cloud contrôlés par Apple – plutôt que de s'appuyer sur une infrastructure tierce – va mieux sauvegarder la confidentialité des utilisateurs. L'entreprise a déjà testé en interne la faisabilité de l'idée.

Les autres fonctionnalités d'Apple Intelligence sont alimentées par des modèles d'IA qui résident sur les appareils des consommateurs. Ces modèles – plus furtifs et moins puissants que les versions basées sur le cloud – sont utilisés pour des tâches comme le résumé de courts e-mails et la création de genmojis.

Apple ouvre les modèles sur les appareils à des développeurs tiers plus tard cette année, permettant aux fabricants d'applications de créer des fonctionnalités d'IA en fonction de sa technologie.

La société n'a pas annoncé son intention de donner aux applications accès aux modèles cloud. L'une des raisons est que les serveurs Cloud n'ont pas encore la capacité de gérer un flot de nouvelles fonctionnalités tierces.

L'entreprise ne travaille actuellement pas à s'éloigner de ses modèles internes pour les cas d'utilisation sur les appareils ou les développeurs. Pourtant, il y a des craintes parmi les ingénieurs de l'équipe des modèles de fondation que le passage à un tiers pour Siri pourrait également prétendre à d'autres fonctionnalités à l'avenir.

L'année dernière, OpenAI a proposé de former des modèles sur disque pour Apple, mais le fabricant d'iPhone n'était pas intéressé.

Depuis décembre 2024, Apple utilise OpenAI pour gérer certaines fonctionnalités. En plus de répondre aux requêtes de connaissances mondiales dans Siri, le chatgpt peut écrire des blocs de texte dans la fonction d'outils d'écriture. Plus tard cette année, dans iOS 26, il y aura une option Chatgpt pour la génération d'images et l'analyse d'images à l'écran.

Selon les gens. La startup de l'IA recherche des frais annuels de plusieurs milliards de dollars qui augmentent fortement chaque année. La lutte pour conclure un accord a laissé qu'Apple envisage de travailler avec Openai ou d'autres s'il avance avec le plan tiers, ont-ils déclaré.

Chart de gestion

Si Apple conclut un accord, l'influence de Giannandrea, qui a rejoint Apple de Google en 2018 et est un partisan du développement de modèles en grande langue en interne, continuerait de rétrécir.

En plus de perdre Siri, Giannandrea a été dépouillé de la responsabilité de l'unité de robotique d'Apple. Et, dans les mouvements non signalés auparavant, les équipes de base ML et des applications de l'entreprise – Groupes responsables des cadres qui permettent aux développeurs d'intégrer l'IA dans leurs applications – ont été transférés à l'organisation d'ingénierie logicielle de Federighi.

L'équipe des modèles de fondation d'Apple avait également construit de grands modèles de langage pour aider les employés et les développeurs externes à écrire du code dans Xcode, son logiciel de programmation. L'entreprise a tué le projet – annoncé l'année dernière en tant qu'aide rapide – il y a un mois.

Au lieu de cela, Apple plus tard cette année déploie un nouveau Xcode qui peut puiser dans des modèles de programmation tiers. Les développeurs d'applications peuvent choisir parmi Chatgpt ou Claude.