un système régi par des agents IA
La manière dont nous utilisons les applications mobiles pourrait entrer dans une nouvelle étape. Jusqu'à présent, l'expérience Android reposait sur quelque chose de très simple : ouvrir des applications et y effectuer des actions étape par étape. Cependant, Google explore un modèle différent, dans lequel l’intelligence artificielle agit comme une couche intermédiaire entre ce que nous demandons et ce que les applications peuvent faire. Dans ce scénario, ce ne sera pas toujours nous qui ferons défiler les menus ou terminerons les processus manuellement. Dans de nombreux cas, il suffira d'exprimer ce que nous voulons faire pour que le système essaie de le résoudre à notre place, en coordonnant les différentes fonctions du téléphone.
La prochaine étape dans Android. Dans un article sur le blog officiel destiné aux développeurs, la société présente de nouvelles fonctionnalités conçues pour que les applications puissent fonctionner directement avec les assistants et les systèmes d'IA. Ces fonctions sont conçues pour que des outils comme Gemini puissent découvrir et exécuter certaines actions dans certaines applications. Le projet en est encore à ses débuts, mais il suggère une direction très spécifique : commencer à reconfigurer Android en tant qu'environnement dans lequel l'intelligence artificielle peut aider à accomplir des tâches.
Qu’entendons-nous par agent. Dans le domaine de l’IA, un agent est un système conçu pour passer de la réponse à l’action. Alors que les premiers assistants numériques fonctionnaient comme des outils de consultation, les agents tentent de comprendre une intention et de planifier comment la réaliser. Pour ce faire, ils combinent plusieurs capacités : comprendre le langage naturel, évaluer le contexte et décider des étapes nécessaires pour répondre à une demande. Il ne s’agit pas seulement de générer du texte ou des suggestions, mais d’organiser une petite chaîne de décisions orientées vers un objectif précis.
Si l'on suit le raisonnement présenté par Google dans sa publication, le changement n'affecte pas seulement l'IA, mais aussi la façon dont les applications sont conçues au sein d'Android. Pendant des années, l’objectif principal de toute application était d’amener l’utilisateur à l’ouvrir et à y effectuer toutes les actions nécessaires. Cependant, ce critère commence à changer. Dans ce nouveau scénario, le succès commence à se mesurer moins à l’ouverture d’une application qu’à sa capacité à nous aider à accomplir une tâche, même lorsque l’utilisateur n’interagit pas directement avec l’ensemble de son interface.

L'un des premiers éléments de changement. La première voie que Google propose d'emprunter dans cette direction passe par quelque chose qu'il appelle AppFunctions. Il ne s'agit pas d'une fonctionnalité visible par l'utilisateur en tant que telle, mais plutôt d'un ensemble d'outils avec lesquels les développeurs peuvent exposer les fonctions et les données de leurs applications à des assistants intelligents comme Gemini. L'exemple mentionné par le blog Android lui-même est assez illustratif : dans la série Galaxy S26 récemment introduite, Gemini peut accéder aux fonctions de Samsung Gallery pour localiser des photos spécifiques sur la base d'une requête en langage naturel, comme lui demander d'afficher des images d'un animal de compagnie. Dans ce cas, l'assistant interprète la demande, active la fonction Samsung Gallery correspondante et renvoie le résultat sans que l'utilisateur ait besoin de naviguer manuellement dans la galerie.
L'autre manière de Google. Parallèlement aux intégrations directes, l'entreprise prépare une deuxième formule pour étendre ce modèle à davantage d'applications. Comme il l'explique, il s'agit d'un système d'automatisation d'interface qui permettra à Gemini de s'occuper de tâches génériques en plusieurs étapes sans dépendre d'une connexion spécifique entre l'application et l'assistant. Au lieu de s’appuyer sur une fonction préalablement exposée par l’application, l’IA agit directement sur l’interface. Google note que ce premier aperçu sera testé sur la série Galaxy S26 et certains Pixel 10, au sein de l'application Gemini et avec une sélection limitée d'applications de livraison, d'épicerie et de transport aux États-Unis et en Corée. L'entreprise garantit également que l'utilisateur pourra suivre le processus via des notifications ou une vue en direct, reprendre le contrôle manuel à tout moment et recevoir des notifications avant des actions sensibles, comme un achat.

Regard vers l'avenir. Si l'annonce de Google est claire, c'est qu'Android commence à se préparer à une étape différente. Les fonctions présentées sont encore en développement et leur déploiement sera progressif, mais elles pointent vers une direction précise : un système d'exploitation dans lequel l'intelligence artificielle joue un rôle de plus en plus actif dans la manière dont nous effectuons les actions quotidiennes sur les téléphones mobiles. Pixel et Samsung apparaissent pour l'instant comme les références les plus visibles, même si Google laisse entendre vouloir apporter ces capacités à davantage de constructeurs à mesure que l'écosystème évolue. Comme c'est souvent le cas pour ce type de changements, le résultat final dépendra de l'évolution des outils, des intégrations et de la réponse des utilisateurs eux-mêmes.
Images | Google
À Simseo | L'iPhone est un téléphone « fabriqué en Chine » depuis des décennies. Aujourd’hui, cela change de pays à toute vitesse : Inde
