Le nouveau décret de Biden sur l'IA devrait dynamiser la Silicon Valley

Mattel et Openai se sont associés. Voici pourquoi les parents devraient être préoccupés par l'IA dans les jouets

Mattel peut sembler être une marque inchangée à l'ancienne. La plupart d'entre nous le connaissent, que ce soit à travers Barbie, Fisher-Price, Thomas & Friends, Uno, Masters of the Universe, Matchbox, Mega ou Polly Pocket.

Mais les jouets changent. Dans un monde où les enfants grandissent avec du contenu organisé par des algorithmes et des assistants vocaux, les fabricants de jouets se tournent vers l'IA pour de nouvelles opportunités.

Mattel s'est maintenant associé à Openai, la société derrière Chatgpt, pour apporter une IA générative dans certains de ses produits. Comme les services d'Openai ne sont pas conçus pour les enfants de moins de 13 ans, en principe Mattel se concentrera sur les produits pour les familles et les enfants plus âgés.

Mais cela soulève toujours des questions urgentes sur le type de relations que les enfants formeront avec des jouets qui peuvent parler, écouter et même prétendre les « comprendre ». Faisons-nous bien avec les enfants et devons-nous réfléchir à deux fois avant de ramener ces jouets à la maison?

Depuis aussi longtemps qu'il y a eu des jouets, les enfants ont projeté des sentiments et imaginé des vies. Une poupée pourrait être un confident, un patient ou un ami.

Mais au cours des dernières décennies, les jouets sont devenus plus réactifs. En 1960, Mattel a sorti Chatty Cathy, qui a gazonné « I Love You » et « Let's Play School ». Au milieu des années 80, Teddy Ruxpin avait introduit la narration animatronique. Puis vint Furby et Tamagotchi dans les années 1990, les créatures nécessitant des soins et l'attention, imitant les besoins émotionnels.

La sortie en 2015 de « Hello Barbie », qui a utilisé l'IA basée sur le cloud pour écouter et répondre aux conversations des enfants, a signalé un autre changement important, quoique de courte durée. Barbie se souvint maintenant de ce que les enfants lui avaient dit, renvoyant des données aux serveurs de Mattel. Les chercheurs en sécurité ont rapidement montré que les poupées pouvaient être piratées, exposant des réseaux domestiques et des enregistrements personnels.

Mettre une IA générative dans le mélange est un nouveau développement. Contrairement aux jouets qui parlent plus tôt, ces systèmes s'engageront dans une conversation à écoulement libre. Ils peuvent simuler des soins, exprimer des émotions, se souvenir des préférences et donner des conseils apparemment réfléchis. Le résultat sera un jouet qui ne se contente pas de divertir, mais qui interagira au niveau psychologique. Bien sûr, ils ne comprendront pas ou ne s'en soucieront pas vraiment, mais ils peuvent apparaître.

Les détails de Mattel ou d'Open IA sont rares. On espère que les caractéristiques de sécurité seront intégrées, y compris des limitations sur les sujets et les réponses pré-scénarisées pour les thèmes sensibles et lorsque les conversations se déclenchent.

Mais même ce ne sera pas infaillible. Les systèmes d'IA peuvent être « jailbreakés » ou trompés pour contourner les restrictions via un jeu de rôle ou des scénarios hypothétiques. Les risques ne peuvent être minimisés et non éradiqués.

Quels sont les risques?

Les risques sont multiples. Commençons par la vie privée. On ne peut pas s'attendre à ce que les enfants comprennent comment leurs données sont traitées. Souvent, les parents ne le font pas non plus – et cela m'inclut. Les systèmes de consentement en ligne nous poussent tous à cliquer sur « accepter tout », souvent sans saisir pleinement ce qui est partagé.

Ensuite, il y a une intimité psychologique. Ces jouets sont conçus pour imiter l'empathie humaine. Si un enfant rentre à la maison triste et en parle à sa poupée, l'IA pourrait les consoler. La poupée pourrait alors adapter les conversations futures en conséquence. Mais cela ne s'en soucie pas vraiment. Il fait semblant de le faire, et cette illusion peut être puissante.

Cela crée un potentiel de liaisons émotionnelles unilatérales, les enfants formant des attachements à des systèmes qui ne peuvent pas répercuter. Au fur et à mesure que les systèmes d'IA apprennent les humeurs, les préférences et les vulnérabilités d'un enfant, ils peuvent également construire des profils de données pour suivre les enfants à l'âge adulte.

Ce ne sont pas seulement des jouets, ce sont des acteurs psychologiques.

Une enquête nationale au Royaume-Uni que j'ai menée avec des collègues en 2021 sur les possibilités de l'IA dans les jouets qui profil les émotions de l'enfant ont révélé que 80% des parents étaient préoccupés par qui aurait accès aux données de leur enfant. D'autres questions de confidentialité qui nécessitent une réponse sont moins évidentes, mais sans doute plus importantes.

Lorsqu'on lui a demandé si les entreprises de jouets devaient être obligées de signaler des signes d'époque d'abus ou de détresse pour les autorités, 54% des citoyens britanniques étaient d'accord – en accordant la nécessité d'une conversation sociale sans réponse facile. Bien que les enfants vulnérables soient protégés, la surveillance de l'État dans le domaine de la famille a peu d'attrait.

Pourtant, malgré les préoccupations, les gens voient également des avantages. Notre enquête en 2021 a révélé que de nombreux parents veulent que leurs enfants comprennent les technologies émergentes. Cela conduit à une réponse mixte de curiosité et de préoccupation. Les parents que nous avons interrogés ont également soutenu avec des avis de consentement clairs, imprimés sur l'emballage, comme la sauvegarde la plus importante.

Mes recherches plus récentes en 2025 avec Vian Bakir sur les compagnons d'IA en ligne et les enfants ont trouvé des préoccupations plus fortes. Quelque 75% des répondants étaient préoccupés par le fait que les enfants se attachent émotionnellement à l'IA. Environ 57% des personnes pensaient qu'il est inapproprié pour les enfants de se confier aux compagnons d'IA sur leurs pensées, leurs sentiments ou leurs problèmes personnels (17% pensaient que c'était approprié, et 27% étaient neutres).

Nos répondants étaient également préoccupés par l'impact sur le développement de l'enfant, en voyant la possibilité de préjudice.

Dans d'autres recherches, nous avons soutenu que les compagnons d'IA actuels sont fondamentalement défectueux. Nous fournissons sept suggestions pour les repenser, impliquant des remèdes pour l'attraction et la dépendance, la suppression des mesures basées sur l'extension de l'engagement, bien que la divulgation des informations personnelles et la promotion de l'alphabétisation de l'IA chez les enfants et les parents (ce qui représente une énorme opportunité de marketing en mettant une conversation sociale positive).

Que faut-il faire?

Il est difficile de savoir à quel point la nouvelle entreprise sera réussie. Il se peut que cette Empathic Barbie ait le chemin de Hello Barbie, de l'histoire des jouets. Si ce n'est pas le cas, la question clé pour les parents est la suivante: quels intérêts ce jouet sert vraiment, votre enfant ou celui d'un modèle d'entreprise?

Les sociétés de jouets avancent avec des produits d'IA empathiques, mais le Royaume-Uni, comme de nombreux pays, n'a pas encore de droit de l'IA spécifique. La nouvelle loi 2025 de données (utilisation et accès) met à jour les réglementations de protection des données et de confidentialité et de communication électronique du Royaume-Uni, reconnaissant le besoin de protections solides pour les enfants. La loi sur l'IA de l'UE prend également des dispositions importantes.

Les efforts de gouvernance internationale sont vitaux. Un exemple est l'IEEE P7014.1, une norme mondiale à venir sur la conception éthique des systèmes d'IA qui imitent l'empathie (je préside le groupe de travail produisant la norme).

L'organisation derrière la norme, l'IEEE, identifie finalement les dommages potentiels et offre des conseils pratiques sur la façon dont l'utilisation responsable ressemble. Ainsi, alors que les lois doivent fixer les limites, les normes détaillées peuvent aider à définir les bonnes pratiques.

La conversation a approché Mattel sur les questions soulevées dans cet article et il a refusé de commenter publiquement.