Sam Altman recherche depuis quelques années un appareil révolutionnaire pour l’ère de l’IA. Cet appareil est… un téléphone portable
Il ne comprend pas toujours bien, mais Ming-Chi-Kuo vient de faire une déclaration particulièrement frappante. Selon ses données, OpenAI prépare son premier « agent d’IA mobile », un smartphone qui sera très différent des actuels, pas tant dans la forme que dans le fond. Si ses prédictions se réalisent, nous pourrions être confrontés à un appareil qui ébranlera les piliers du segment mobile actuel.
Bonjour, « téléphone OpenAI ». Kuo précise que la production en série de ce smartphone conçu par OpenAI débutera au premier semestre 2027. Il nous apprend également que le SoC qui régira cet appareil sera une version personnalisée du futur MediaTek Dimensity 9600 fabriqué avec le procédé N2P de TSMC et qui arrivera théoriquement dans la seconde moitié de l’année.
Le mobile qui veut voir le monde. Cette puce aura quelques fonctionnalités particulières, comme un ISP (Integrated Signal Processor) avec un système HDR qui permet d’optimiser la perception visuelle du monde. C’est logique : le mobile veut devenir partie intégrante de notre interaction avec le monde, et cette capacité visuelle est essentielle.
Deux NPU valent mieux qu’un. Il disposera également d’une architecture double NPU pour augmenter sa capacité de calcul IA. Il intégrera théoriquement la mémoire LPDDR6 et disposera d’UFS 5.0 pour éviter les goulots d’étranglement mémoire. Si tout se passe bien, dit Kuo, entre 2027 et 2028, 30 millions d’unités seront distribuées. Rien d’autre, mais le plan semble incroyablement ambitieux.
Changement de paradigme. Ce type d’appareil, souligne Kuo, condamnera l’interface utilisateur telle que nous la connaissons. Le concept consistant à naviguer dans un patchwork d’icônes pour effectuer des tâches indépendantes sera obsolète. Le concept proposé par OpenAI comprend que l’utilisateur ne souhaite pas utiliser une « pile applicative », mais plutôt atteindre ses objectifs via un agent centralisé. Cela implique une refonte radicale du smartphone dans laquelle l’écran cesse d’être un menu d’options et devient une sorte de miroir de ce que veut l’utilisateur, de ses « intentions ». Nous sommes passés d’une interaction manuelle à une inférence proactive, car l’IA est chargée de détecter ce qui doit être fait pour mener à bien l’action dont l’utilisateur a besoin. Sans toucher l’écran. La résolution des tâches régit la navigation.
OpenAI étant Apple. Pour y parvenir, OpenAI doit tout contrôler sur cet appareil, comme ce qui se passe avec Apple et ses iPhones. Pour qu’un agent IA fonctionne de manière transparente, il doit accéder aux capteurs et à l’état des appareils en temps réel, ce que les systèmes d’exploitation actuels restreignent de par leur conception. OpenAI veut contrôler à la fois le matériel et les logiciels pour capturer toutes les informations pertinentes à tout moment. La barrière technique n’est pas le modèle d’IA, mais ce contrôle total qui nécessite également une parfaite gestion de la mémoire et de la consommation d’énergie. Apple, d’ailleurs, participe à la même bataille, bien que d’une manière différente.
Le défi énergétique. Il semble logique de penser que cet appareil fonde une bonne partie de ses capacités sur des modèles d’IA dans le cloud, mais aussi qu’il aura la capacité d’exécuter certaines tâches grâce à de petits modèles locaux. Disposant donc de deux NPU qui permettent d’exécuter au moins certaines tâches sur le mobile lui-même. Cela sera crucial justement en termes de consommation d’énergie, car cette IA qui automatise les tâches en les enchaînant consomme bien plus de calcul que l’interaction habituelle avec une application aujourd’hui.
L’App Store en danger d’extinction. Il y a ici une idée particulièrement frappante. L’économie de l’App Store est confrontée à une perturbation existentielle. Le modèle actuel repose sur la friction : il faut ouvrir une application spécifique pour chaque tâche, ce qui justifie la « taxe » de 30 % et le jardin clos. Si un agent IA peut réserver un vol ou commander de la nourriture en accédant directement aux API en arrière-plan, l’icône sur l’écran d’accueil disparaît. L’« application » cesse d’être une destination et devient un outil invisible. Cela menace non seulement les revenus d’Apple, mais redéfinit le développement mobile vers un écosystème « API-first », où l’interface graphique n’a pas d’importance et où la concurrence est décidée par l’efficacité des agents, et non par la conception de l’interface utilisateur.
Adieu la vie privée ? Et dans ce contexte, la vie privée pourrait redevenir le prix à payer du « c’est tellement pratique d’utiliser un appareil comme celui-ci » de ces futurs téléphones portables. Pour qu’un agent IA soit utile et fonctionne de manière véritablement autonome, il doit tout savoir ou presque tout sur nous. Notre localisation, notre état de santé, nos messages et bien sûr le contenu de l’écran à tout moment, entre autres. L’opacité des modèles propriétaires fera que nous ne saurons jamais quelles données sont divulguées dans le cloud pour « améliorer le service », faisant de la confidentialité une variable contrôlée (encore une fois) par le constructeur.
À Simseo | Microsoft a insisté pour que Windows soit un « agent ». Ses utilisateurs lui ont rappelé qu’ils ne l’avaient pas demandé
