L’IA continuera de croître en 2025, mais elle pourrait être confrontée à des défis majeurs en cours de route
En 2024, l’intelligence artificielle (IA) a continué à faire des progrès considérables et surprenants.
Les gens ont commencé à converser avec les « résurrections » des morts par l’IA, en utilisant des brosses à dents IA et en se confessant à un Jésus alimenté par l’IA. Pendant ce temps, OpenAI, la société derrière ChatGPT, était évaluée à 150 milliards de dollars et affirmait qu'elle était sur le point de développer un système d'IA avancé plus performant que les humains. DeepMind, la société d'IA de Google, a fait une déclaration similaire.
Ce ne sont là que quelques-unes des étapes franchies en matière d’IA au cours de l’année écoulée. Ils renforcent non seulement l’ampleur de la technologie, mais également la façon dont elle transforme un large éventail d’activités humaines.
Alors, à quoi pouvons-nous nous attendre dans le monde de l’IA en 2025 ?
Mise à l'échelle neuronale
Les lois d'échelle neuronale suggèrent que les capacités des systèmes d'IA augmenteront de manière prévisible à mesure que la taille des systèmes augmente et qu'ils sont formés sur davantage de données. Ces lois ont jusqu’à présent théorisé le passage des modèles d’IA générative de première à deuxième génération tels que ChatGPT.
Les utilisateurs quotidiens comme nous ont vécu cela comme la transition de discussions amusantes avec des chatbots à un travail utile avec des « copilotes » d'IA, comme la rédaction de propositions de projets ou la synthèse d'e-mails.
Récemment, ces lois d’échelle semblent avoir atteint un plateau. Agrandir les modèles d’IA ne signifie plus les rendre plus performants.
Le dernier modèle d'OpenAI, o1, tente de surmonter le plateau de taille en utilisant plus de puissance informatique pour « réfléchir » à des problèmes plus délicats. Mais cela risque d’augmenter les coûts pour les utilisateurs et ne résoudra pas les problèmes fondamentaux tels que les hallucinations.
Le plateau de mise à l’échelle est une pause bienvenue dans la transition vers la construction d’un système d’IA plus performant que les humains. Cela pourrait permettre à une réglementation robuste et à un consensus mondial de rattraper son retard.
Données de formation
La plupart des systèmes d’IA actuels s’appuient sur d’énormes quantités de données pour la formation. Cependant, les données de formation se heurtent à un mur car la plupart des sources de haute qualité ont été épuisées.
Les entreprises mènent des essais dans lesquels elles entraînent des systèmes d’IA sur des ensembles de données générés par l’IA. Et ce malgré un grave manque de compréhension des nouveaux « biais synthétiques » qui peuvent aggraver l’IA déjà biaisée.
Par exemple, dans une étude publiée plus tôt cette année, les chercheurs ont démontré comment la formation avec des données synthétiques produit des modèles moins précis et marginalisant de manière disproportionnée les groupes sous-représentés, même si on commence avec des ensembles de données impartiaux.
Le besoin des entreprises technologiques de données authentiques et de haute qualité renforce les arguments en faveur de la propriété des données personnelles. Cela donnerait aux gens beaucoup plus de contrôle sur leurs données personnelles, leur permettant, par exemple, de les vendre à des entreprises technologiques pour former des modèles d'IA dans des cadres politiques appropriés.
Robotique
Cette année, Tesla a annoncé un robot humanoïde alimenté par l'IA. Connu sous le nom d'Optimus, ce robot est capable d'effectuer de nombreuses tâches ménagères.
En 2025, Tesla prévoit de déployer ces robots dans ses opérations de fabrication internes avec une production de masse pour des clients externes en 2026.
Amazon, le deuxième employeur privé au monde, a également déployé plus de 750 000 robots dans ses opérations d'entrepôt, y compris son premier robot mobile autonome capable de travailler de manière autonome en présence de personnes.
La généralisation, c'est-à-dire la capacité d'apprendre à partir d'ensembles de données représentant des tâches spécifiques et de généraliser cela à d'autres tâches, constitue l'écart de performance fondamental en robotique.
Ce problème est désormais résolu par l’IA.
Par exemple, une société appelée Physical Intelligence a développé un modèle de robot capable de décharger un sèche-linge et de plier les vêtements en pile, même s'il n'est pas explicitement formé pour ce faire. L’argumentaire commercial en faveur des robots domestiques abordables reste solide, même s’ils restent coûteux à fabriquer.
Automation
Le projet du Département de l'efficacité gouvernementale aux États-Unis est également susceptible de conduire un important programme d'automatisation de l'IA dans sa volonté de réduire le nombre d'agences fédérales.
Ce programme devrait également inclure le développement d'un cadre pratique pour la réalisation de « l'IA agentique » dans le secteur privé. L'IA agentique fait référence à des systèmes capables d'effectuer des tâches totalement indépendantes.
Par exemple, un agent IA sera capable d'automatiser votre boîte de réception, en lisant, en hiérarchisant et en répondant aux e-mails, en organisant des réunions et en effectuant le suivi des actions et des rappels.
Règlement
La nouvelle administration du président américain nouvellement élu Donald Trump prévoit de mettre fin aux efforts visant à réglementer l'IA, en commençant par l'abrogation du décret du président sortant Joe Biden sur l'IA. Cette ordonnance a été adoptée dans le but de limiter les dommages tout en favorisant l'innovation.
L’administration Trump développera également une politique de marché ouvert dans laquelle les monopoles de l’IA et d’autres industries américaines seront encouragés à mener un programme d’innovation agressif.
Ailleurs, cependant, nous verrons la loi de l’Union européenne sur l’IA entrer en vigueur en 2025, en commençant par l’interdiction des systèmes d’IA qui présentent des risques inacceptables. Cela sera suivi par le déploiement d'obligations de transparence pour les modèles d'IA génératifs, tels que ChatGPT d'OpenAI, qui présentent des risques systémiques.
L’Australie suit une approche basée sur les risques en matière de réglementation de l’IA, tout comme l’UE. La proposition de dix garde-fous obligatoires pour l’IA à haut risque, publiée en septembre, pourrait entrer en vigueur en 2025.
Productivité au travail
Nous pouvons nous attendre à voir les lieux de travail continuer à investir dans des licences pour divers systèmes « copilotes » d’IA, car de nombreux premiers essais montrent qu’ils peuvent augmenter la productivité.
Mais cela doit être accompagné d’une formation régulière à l’IA et à la maîtrise de l’IA pour garantir que la technologie est utilisée de manière appropriée.
En 2025, les développeurs d’IA, les consommateurs et les régulateurs devraient être conscients de ce que le Macquarie Dictionary a surnommé le mot de l’année en 2024 : l’enshittification.
C’est le processus par lequel les plateformes et services en ligne se détériorent progressivement au fil du temps. Espérons que cela n’arrive pas à l’IA.