Voici comment il se compare aux autres IA et pourquoi il utilisera ChatGPT

Voici comment il se compare aux autres IA et pourquoi il utilisera ChatGPT

L'IA d'Apple n'est pas arrivée comme nous le pensions. Lorsque la collaboration avec OpenAI a été divulguée, nous pensions que l'entreprise de Sam Altman allait avoir beaucoup plus de poids, mais cela n'a finalement pas été le cas. Apple Intelligence est un modèle d'intelligence artificielle entièrement développé par Apple, sans rapport avec ChatGPT.

L'alliance entre Apple et OpenAI est officielle, mais nous avons affaire à deux projets distincts. D'une part Apple Intelligence et Siri et d'autre part l'ajout de ChatGPT. Nous expliquons ici ce qu'Apple a développé, à quoi ressemble le rôle d'OpenAI et comment Apple Intelligence se positionne dans cette bataille de l'intelligence artificielle où la société de Cupertino participe déjà avec ses propres armes.

Lors de la présentation d'Apple Intelligence, ses fonctions ont été annoncées, qui seraient intégrées à iOS 18, iPadOS 18 et macOS Sequoia et qu'il aurait à la fois une version « sur appareil » et une version connectée au cloud, mais en privé avec quoi qu'ils ont appelé « Private Cloud Compute ». Mais ils n’ont pas donné de détails techniques sur le modèle d’IA qui se cache derrière.

Heureusement de la part de l'équipe Recherche sur l'apprentissage automatique Apple Ils ont publié un petit rapport sur les données techniques du modèle de langage (LLM) qui pilote Apple Intelligence. Nous passons ici en revue ses principales caractéristiques, qui nous aideront à mieux comprendre jusqu'où va l'IA d'Apple qu'ils nous ont présentée lors de la WWDC 2024.

Un modèle d'IA propriétaire avec 3 milliards de paramètres

Apple Intelligence est un ensemble de plusieurs modèles d'IA spécialisés dans les « tâches quotidiennes des utilisateurs ». Ces modèles ont été peaufinés pour exceller dans des tâches telles que l'écriture, la synthèse, la création d'images et la simplification des interactions entre les applications. Autrement dit, la plupart des tâches que nous pouvons effectuer depuis Siri sur l'iPhone.

Comme décrit par Apple, son modèle d'IA comporte environ 3 milliards de paramètres pour la version sur appareil et un modèle encore plus grand qui fonctionne sur des serveurs Apple alimentés par des puces Apple Silicon et des énergies renouvelables. C'est-à-dire, un modèle d'IA « sur appareil » et un autre sur les serveurs Apple.

Apple réserve pour l'instant ces deux modèles d'IA, mais explique qu'elle sortira prochainement de nouveaux modèles.

Si on le compare à son rival direct, Apple Intelligence est dans une niveau pratiquement identique à Gemini Nano. Si celui d'Apple propose 3 000 millions de paramètres, le Gemini Nano de Google propose deux versions, une avec 1 800 millions pour les appareils à faible mémoire RAM et une autre avec 3 250 millions de paramètres, pour les Pixel et autres appareils Android haut de gamme.

Pour entraîner leur modèle, ils s'appuient sur Apple AXLearn, un projet open source démarré en 2023. Concernant le contenu utilisé pour créer ce modèle, Apple explique avoir utilisé données sous licence ainsi que contenu accessible au publiccollecté par son robot d'exploration Web AppleBot.

Apple souligne qu'ils n'utilisent jamais les données privées des utilisateurs ou leurs interactions pour créer ce modèle d'IA et qu'ils appliquent des filtres pour éliminer personnellement toute information qui pourrait identifier les utilisateurs et qui se trouve sur le Web. Les autres filtres appliqués visent à supprimer les données de bas niveau ou en double. Et enfin, ils expliquent que les pages Web qui ne souhaitent pas voir leur contenu utilisé pour Apple Intelligence ont la possibilité de le demander. Ce sont des arguments que l’on a vu répéter à de nombreuses reprises, qui nous disent que pour créer son IA, Apple a suivi la recette traditionnelle.

Adaptateurs

La formation en IA a également son optimisation respective. Apple explique ici avoir réduit l'utilisation de la mémoire nécessaire. La version « sur appareil » a un vocabulaire de 49 Ko, alors que le modèle de serveur a 100K. En comparaison, Gemini Nano a une limite de jetons de 32 Ko.

Comme nous l'avons expliqué initialement, le modèle Apple a été formé pour effectuer des tâches spécifiques. Apple le définit comme des « adaptateurs ». Un ensemble de paramètres spécifiques pour améliorer les tâches qu’ils souhaitent effectuer. Par exemple, au niveau récapitulatif, Apple utilise 750 questions spécifiques pour évaluer si la réponse est correcte. Parmi les tâches auxquelles ils ont appliqué un travail supplémentaire figurent celles de « brainstorming, classification, réponse à des questions fermées, programmation, extraction, raisonnement mathématique, réponse à des questions ouvertes, réécriture, sécurité, synthèse et rédaction ».

Au niveau de GPT-4 Turbo, dans des tâches spécifiques

Apple présente plusieurs benchmarks se comparant à certains des principaux modèles d'IA du moment. Dans le modèle d'IA intégré à l'appareil, il est comparé au Phi-3 mini de Microsoft, au Mistral 7-B et au Gemma 7-B de Google. Alors que dans le modèle de serveur, il est comparé à GPT-4 Turbo et Mistral 8x22B.

Références Apple
Références Apple

Selon le benchmark IFEval, qui mesure la capacité de l'IA à suivre des instructionsles modèles Apple Intelligence sont à égalité et même surpassent les modèles open source et commerciaux de taille équivalente.

OpenAI vient de s'engager dans une voie aussi ambitieuse que difficile : comprendre comment fonctionne la « boîte noire » de l'IA

Ils enseignent également plusieurs benchmarks pour la rédaction et la synthèse de textes, où l'IA d'Apple se démarque particulièrement. Cependant, aucun des benchmarks choisis par Apple n’est générique. Il faudra attendre les prochains tests pour déterminer dans quelle mesure l'IA d'Apple parvient à rivaliser avec les principaux modèles ou n'est à la hauteur que dans les tâches pour lesquelles elle a été spécialement optimisée.

Apple a adopté une stratégie de spécialisation pour son IA, mais nous n'avons pas aucune trace de multimodalité. Oui, nous avons du texte et aussi de la voix, mais à aucun moment il n'y a de référence à la vidéo, comme le fait Google avec Project Astra ou OpenAI avec GPT-4o. C'est dommage, car les futurs Apple Vision Pro pourraient être très utiles.

Comment Apple protégera les informations lorsqu'elles seront envoyées vers le cloud

La promesse d’Apple Intelligence est la suivante : les fonctions d’IA sont exécutées sur l’appareil et traitées avec le modèle d’IA sur l’appareil. Mais lorsque la tâche s'avère trop complexe, il choisira de se connecter aux serveurs d'Apple.

L'objectif est que la plupart des tâches soient effectuées directement sur l'iPhone, l'iPad ou le Mac. Pour ce faire, Apple nécessite au moins un iPhone 15 Pro (avec l'A17 Pro) ou un processeur M1 ou supérieur. Quand le processeur d'Apple n'est pas assez puissant pour la tâche que l'on demande à l'IA, Private Cloud Compute entrera en action. Certains cas sont par exemple l'analyse d'images, la synthèse de textes volumineux ou la recherche d'informations sur Internet.

Comme l'explique Apple, ils ont créé une infrastructure cloud spécifique pour l'IA. Ils promettent qu'il s'agit du « le plus sécurisé et le plus avancé jamais créé pour l'IA dans le cloud ». Et que font-ils différemment ? Ce sont quelques-unes des promesses expliquées par Apple.

Par exemple, l'envoi de données est crypté de bout en bout et lorsque cela n'est pas possible, ils « s'efforcent de traiter les données des utilisateurs de manière éphémère ou sous des identifiants aléatoires et non corrélés qui obscurcissent l'identité de l'utilisateur ».

Dans quelle mesure les données anonymisées que les entreprises nous promettent lorsqu'elles vont utiliser nos données personnelles sont-elles anonymes ?

Apple reconnaît que la sécurité et la confidentialité dans le cloud sont difficiles à vérifier et à garantir. Une fois que Private Cloud Compute sera disponible en version bêta pour les développeurs, ils publieront plus de détails, mais pour l'instant ils promettent qu'ils forceront le respect de certaines exigences, telles que « Les données utilisateur ne peuvent être utilisées que dans le but demandé par l'utilisateur lui-même » et qu'aucune de ces données ne sera visible, « pas même par les employés d'Apple ».

Au niveau des composants, Apple entend qu'aucun type d'élément externe ne soit utilisé à des fins de sécurité. Et dans le cas d’analyse d’erreurs ou de métriques de serveur, nous opterons pour des services avec un haut niveau de confidentialité.

Le rôle des travailleurs d'Apple est pertinent et ils expliquent que Private Cloud Compute n'offrira aucune autorisation supplémentaire aux travailleurs pour contourner les restrictions. Enfin, Apple explique que permettra à tout chercheur en sécurité de vérifier le fonctionnement de votre infrastructure pour vérifier que les garanties sont respectées.

Siri se connectera à ChatGPT, mais ce ne sera pas le seul

Chatgpt Siri
Chatgpt Siri

Comme on le voit, à aucun moment du développement d’Apple Intelligence OpenAI n’intervient. Où est donc l’alliance ? Depuis la fin de cette année, ChatGPT sera intégré à Siri et dans les outils d'écriture.

Pour certaines questions, Siri renverra la réponse à ChatGPT et celui-ci nous répondra directement. Cela signifie que les utilisateurs de Siri auront un accès gratuit à ChatGPT, sans avoir besoin de créer un nouveau compte.

Il y a un point qu'Apple a expliqué mais pas enseigné. Lorsque nous souhaitons utiliser ChatGPT, Siri nous enverra une notification pour accepter. En acceptant cette utilisation de ChatGPT, nous entrons dans un terrain différent. Une fois que nous aurons accès à ChatGPT, nos données seront transférées vers les serveurs OpenAI.

Cependant, Apple promet que les requêtes ne peuvent pas être stockées par OpenAI et que les adresses IP des utilisateurs seront masquées, conformément à la promesse de Private Cloud Compute. Cette phase du traitement des données est celle qui suscite le plus de doutes en matière de confidentialité.

L'alliance avec OpenAI ne sera pas exclusive. Craig Federighi, vice-président de l'ingénierie d'Apple, a expliqué lors de la conférence que De nouveaux systèmes d'IA pourraient être ajoutés à Siri à l'avenir, au-delà de ChatGPT. Sans même exclure Google Gemini. Avec cette décision, Apple garde un atout dans sa manche pour trouver de nouveaux alliés ; continuez à développer votre propre IA ; ne pas offrir de système fermé aux régulateurs et être en mesure de couvrir les marchés où ChatGPT n'est pas disponible.

C'est le cas de la Chine, un marché auquel Apple aspire et où les iPhone sont très populaires. Avec cette stratégie Apple Intelligence, Siri pourrait bien travailler aux côtés des systèmes d’IA d’entreprises comme Baidu ou même d’une IA d’État. Apple a créé son propre modèle d'IA, mais a également ouvert la porte à d'autres entreprises pour l'aider à atteindre là où elles ne peuvent pas.

À Simseo | J'ai essayé iOS 18 et je suis aussi excité que confus