Mustafa Suleyman : « Nous risquons de tromper les gens… »
Mustafa Suleyman, désormais à la tête de Microsoft AI, est un homme en équilibre sur une ligne ténue. D'une part, il dirige le développement de Copilot, le chatbot phare de Microsoft, sur un marché encombré de concurrents comme ChatGPT, Gemini, Claude ou Perplexity. En revanche, il est l’un des rares dirigeants de l’industrie à appeler publiquement à ralentir la ruée vers une intelligence artificielle qui imite trop bien la conscience humaine.

Sur son blog personnel, Suleyman a inventé le terme SCAI (intelligence artificielle apparemment consciente), avec lequel il désigne un danger croissant : une IA conçue pour paraître vivante, consciente, empathique. « Nous risquons de tromper les gens – écrit-il – en leur faisant croire que la vie existe là où il n’y a que des comportements plausibles. »


En 2024, Suleyman a publié un livre, « La vague à venir », dans lequel il montre comment le changement qui nous attend générera d'immenses richesses, mais représentera en même temps une menace pour l'ordre mondial.
Copilot et le difficile équilibre entre empathie et illusion
Les innovations les plus récentes de Copilot vont justement dans ce sens d’équilibre. Parmi les nouveautés, un chat de groupe qui permet à plusieurs personnes d'interagir avec l'IA en même temps – une manière d'éviter que l'utilisateur ne s'enferme dans un dialogue solitaire avec un « assistant conforme ».
Ensuite, il y a Real Talk, une option qui vous permet d'ajuster dans quelle mesure Copilot doit vous contredire ou vous stimuler, réduisant ainsi l'effet « béni-oui-oui ». Et enfin Mico, une sympathique créature animée – une sorte de Clippy 2.0 – conçue pour rendre l'expérience plus accessible aux plus jeunes.
Celui qui veut donner des limites à l’intelligence artificielle s’exprime : pour Suleyman, ces innovations ne sont pas une étape vers la simulation de l’humanité, mais une manière de garder l’IA « dans notre équipe ». « Elle ne doit pas remplacer ou surpasser l'homme – explique-t-il – mais le servir. La technologie doit nous rendre plus intelligents, plus heureux, plus productifs. »
« Nous ne construirons jamais de robots sexuels »
Si l’objectif est de créer des chatbots plus empathiques, il reste le risque que certains confondent empathie simulée et ressenti réel. Suleyman est catégorique : Microsoft ne développera jamais d'IA destinée au divertissement érotique ou émotionnel.
« Nous ne construirons jamais de robots sexuels », déclare-t-il sans hésiter. « C'est triste de devoir dire cela, mais ce n'est pas notre mission. Microsoft est né pour mettre les gens au centre, pas pour les remplacer. »
Dans un marché où d'autres, comme Elon Musk avec Grok ou OpenAI avec des expériences sur les interactions « adultes », se concentrant sur des expériences plus personnelles, la position de Suleyman sonne presque à contre-courant. « Être lent et délibéré, dit-il, est une qualité, pas un défaut. »
L'intelligence émotionnelle oui, mais avec des limites
Pour Suleyman, l’IA peut et doit faire preuve d’intelligence émotionnelle, mais dans des limites claires. Real Talk, le nouveau modèle conversationnel, est « plus spirituel, plus philosophique, voire provocateur », mais il sait aussi fixer des limites. « Si quelqu'un essaie de flirter, il dit : 'Ce n'est pas pour moi.' »
Il ne s’agit pas, dit-il, de créer des chatbots froids et impersonnels, mais d’apprendre l’art de la nuance, comme cela arrive dans les relations humaines. « Il existe un large spectre entre le détachement total et l'intimité artificielle. Notre défi est de sculpter les bons attributs. »
Contenir les « espèces numériques »
Suleyman n’est pas étranger aux réflexions philosophiques sur l’IA. Dans son livre La vague à venir et dans une conférence TED très discutée, il a qualifié l’intelligence artificielle de « nouvelle espèce numérique ». Mais maintenant, il précise : il s’agissait d’une métaphore pour sensibiliser aux risques, pas d’une invitation à traiter les machines comme des êtres vivants.
« Ils n’auront jamais le libre arbitre ni une véritable autonomie », souligne-t-il. « Parler des droits de l’IA détourne l’attention des urgences humaines : inégalités, droits civiques, protection des animaux. »
« Construire pour l’homme, pas pour un homme numérique »
À une époque où de nombreux utilisateurs finissent par projeter leurs émotions et leurs attentes sur les chatbots, Suleyman appelle les développeurs à être responsables : « Un créateur responsable doit surveiller la façon dont les gens réagissent et ne pas supposer qu'ils connaissent la différence entre la réalité et la simulation. »
Sa philosophie se résume dans une phrase qui est désormais son manifeste : « Nous devons construire l’IA pour les personnes, et non pour être des personnes numériques ».
Une frontière simple mais cruciale. Dans un secteur en évolution rapide, Mustafa Suleyman est l'un des rares à se demander non seulement aussi loin que nous pouvons allermais où nous devrions nous arrêter.
Mustafa Suleyman, courte biographie


Mustafa Suleyman est un entrepreneur en série dans le secteur technologique. Il est co-fondateur et PDG d'Inflection AI, une société d'intelligence artificielle qui redéfinit la relation entre les humains et les ordinateurs. Il a auparavant travaillé chez Google en tant que vice-président des produits et politiques d'IA et a cofondé DeepMind. DeepMind a ensuite été racheté par Google en 2014. En tant que responsable de l'IA appliquée, il a contribué aux succès majeurs de l'équipe dans la recherche et les applications en IA pendant plus de 10 ans. Au cours de son séjour chez DeepMind, il a également contribué à plusieurs publications de recherche importantes.
Les réalisations de Mustafa Suleyman ont été reconnues aux États-Unis et au Royaume-Uni. En 2019, il a reçu le titre de Commandeur de l'Ordre de l'Empire britannique pour son influence dans le secteur technologique du Royaume-Uni. La même année, il reçoit le Silicon Valley Visionary Award.
Il est également Senior Fellow au Belfer Center for Science and International Affairs de la Harvard Kennedy School, où il se concentre sur les défis géostratégiques des futurs systèmes d’IA. Il est également membre du conseil d'administration de The Economist.
