à exécuter directement sur l’iPhone
Apple semble avoir raté le coche en matière d’IA, mais peut-être est-elle en train de mijoter sa révolution particulière. C’est du moins ce qui ressort d’une découverte récente : une enquête menée par des experts de l’entreprise qui désigne un rival de ChatGPT avec une différence fondamentale : il ne sera pas basé sur le cloud.
Une étude prometteuse. Un groupe de chercheurs Apple a publié un nouveau rapport intitulé « LLM in a flash » qui soulève une idée intéressante. Selon cette étude, le stockage Flash est plus abondant dans les appareils mobiles que la RAM normalement utilisée dans les LLM. Avec leur méthode, il est possible de profiter de ce type de stockage, ce qui ouvre les portes à des possibilités saisissantes.
Deux techniques pour résoudre le problème. Pour activer ces types de fonctionnalités, les chercheurs ont créé deux techniques différentes. Le premier, dit « fenêtrage », qui permet au lieu d’utiliser de nouvelles données à chaque fois, l’IA réutilise une partie des données déjà traitées, en les recyclant. Le second, appelé « Row-Column Bundling », qui permet de regrouper les données plus efficacement, pouvant ainsi accélérer la capacité de l’IA à comprendre et à générer du langage.
Un AppleGPT en vue. La combinaison de ces méthodes nous permet de proposer l’arrivée d’un « AppleGPT » qui ne fonctionnerait pas depuis le cloud, mais directement sur le téléphone mobile, même si nous n’avons pas de connexion aux réseaux de données. De plus, affirment les chercheurs, les techniques permettraient de multiplier la vitesse de traitement de l’IA par 4 à 5 fois sur le CPU mobile, et jusqu’à 20 à 25 fois sur son GPU. Comme ils le soulignent dans leur étude, « cette avancée est particulièrement cruciale pour déployer des LLM avancés dans des contextes à ressources limitées, élargissant ainsi leur applicabilité et leur accessibilité ».
Un Siri survitaminé ? Comme indiqué dans Bloomberg il y a quelques semaines, Apple travaille sur une version plus puissante de Siri dans laquelle il y aurait une intégration significative de l’intelligence artificielle. L’assistant pourrait ainsi répondre à des questions plus complexes ou compléter automatiquement des phrases plus efficacement. On parle également de traduction linguistique en temps réel et, bien sûr, de nouvelles capacités dans le domaine de la photographie et de la réalité augmentée, surtout maintenant que le Vision Pro est sur le point d’arriver.
L’Ajax comme base. Cet été, nous avons déjà parlé de cet ambitieux projet Apple qui aura Ajax comme élément fondamental. Ce LLM tentera de concurrencer les modèles GPT-4 (ou au moins GPT-3.5), PaLM 2 ou Llama, OpenAI, Google et Meta. Les mouvements d’Apple à cet égard affectent également les outils avec lesquels travaillent ses développeurs, et l’effort semble vouloir se cristalliser avec iOS 18.
Apple souhaite que vous utilisiez son chatbot localement. La grande différence ici réside dans la possibilité d’utiliser ce « Apple GPT » – ou quel que soit son nom – de manière totalement indépendante du cloud. Nous sommes confrontés au cas d’une solution informatique « de pointe », c’est-à-dire exécutée localement, sans qu’il soit nécessaire que nous soyons connectés à des réseaux de données, par exemple. C’est la même chose que, par exemple, Google poursuit avec Gemini Nano.
Pourquoi c’est important. Cette différence dans son mode de fonctionnement est pertinente car elle est précisément cohérente avec la philosophie d’Apple : éviter le cloud permettra théoriquement à l’entreprise de se vanter de plus de garanties en termes de confidentialité car ce que nous demandons et le chatbot nous répond ne quittera pas notre appareil ou » sera collecté. » Apple s’est longtemps proclamé champion de notre vie privée (hum), et cela pourrait renforcer ce discours.