Comment garantir que les jeunes, les parents, les éducateurs et les entreprises technologiques soient sur la même longueur d'onde en matière d'IA
L’intelligence artificielle fait désormais partie du quotidien. C'est dans nos téléphones, nos écoles et nos foyers. Pour les jeunes, l’IA façonne la façon dont ils apprennent, se connectent et s’expriment. Mais cela soulève également de réelles préoccupations en matière de confidentialité, d’équité et de contrôle.
Les systèmes d’IA promettent souvent personnalisation et commodité. Mais en coulisses, ils collectent de grandes quantités de données personnelles, font des prédictions et influencent les comportements, sans règles claires ni consentement.
Cela est particulièrement troublant pour les jeunes, qui sont souvent exclus des conversations sur la manière dont les systèmes d’IA sont construits et gouvernés.
Préoccupations concernant la vie privée
Mon équipe de recherche a mené une recherche nationale et a entendu des jeunes âgés de 16 à 19 ans qui utilisent l’IA quotidiennement – sur les réseaux sociaux, en classe et dans les jeux en ligne.
Ils nous ont dit qu’ils souhaitaient bénéficier des avantages de l’IA, mais pas au détriment de leur vie privée. Même s’ils apprécient le contenu personnalisé et les recommandations intelligentes, ils ne se sentent pas à l’aise quant au sort de leurs données.
Beaucoup ont exprimé leur inquiétude quant à savoir à qui appartiennent leurs informations, comment elles sont utilisées et s'ils pourront un jour les récupérer. Ils sont frustrés par les longues politiques de confidentialité, les paramètres cachés et le sentiment qu’il faut être un expert en technologie juste pour se protéger.
Comme l'a déclaré un participant : « Je suis principalement préoccupé par les données collectées et par la manière dont elles sont utilisées. Souvent, nous ne sommes pas informés clairement. »
Mal à l'aise pour partager leurs données
Les jeunes constituent le groupe le plus mal à l’aise lorsqu’il s’agit de partager des données personnelles avec l’IA. Même lorsqu'ils obtenaient quelque chose en retour, comme de la commodité ou de la personnalisation, ils n'avaient pas confiance dans ce qui allait se passer ensuite. Beaucoup craignent d'être surveillés, suivis ou catégorisés d'une manière qu'ils ne peuvent pas voir.
Cela va au-delà des risques techniques. Il s'agit de ce que l'on ressent lorsque l'on est constamment analysé et prédit par des systèmes que l'on ne peut ni remettre en question ni comprendre.
L'IA ne se contente pas de collecter des données, elle tire des conclusions, façonne les expériences en ligne et influence les choix. Cela peut ressembler à de la manipulation.
Les parents et les enseignants sont inquiets
Les adultes (éducateurs et parents) participant à notre étude partageaient des préoccupations similaires. Ils veulent de meilleures garanties et des règles plus strictes.
Mais beaucoup ont admis qu’ils avaient du mal à suivre la rapidité avec laquelle l’IA évolue. Souvent, ils ne se sentent pas en confiance pour aider les jeunes à faire des choix judicieux en matière de données et de confidentialité.
Certains y voient une lacune dans l’éducation numérique. D’autres ont souligné la nécessité d’explications en langage simple et de plus de transparence de la part des entreprises technologiques qui construisent et déploient des systèmes d’IA.
Les professionnels se concentrent sur les outils, pas sur les personnes
L’étude révèle que les professionnels de l’IA abordent ces défis différemment. Ils réfléchissent à la confidentialité en termes techniques tels que le cryptage, la minimisation des données et la conformité.
Bien que ces éléments soient importants, ils ne correspondent pas toujours à ce qui importe aux jeunes et aux éducateurs : la confiance, le contrôle et le droit de comprendre ce qui se passe.
Les entreprises considèrent souvent la confidentialité comme un compromis au profit de l’innovation. Ils valorisent l'efficacité et les performances et ont tendance à faire confiance aux solutions techniques plutôt qu'aux contributions des utilisateurs. Cela peut laisser de côté les principales préoccupations des personnes les plus touchées, en particulier les jeunes utilisateurs.
Le pouvoir et le contrôle sont ailleurs
Les professionnels de l’IA, les parents et les éducateurs influencent la manière dont l’IA est utilisée. Mais les plus grandes décisions se prennent ailleurs. De puissantes entreprises technologiques conçoivent la plupart des plateformes numériques et décident quelles données sont collectées, comment fonctionnent les systèmes et quels choix les utilisateurs voient.
Même lorsque les professionnels font pression pour des pratiques plus sûres, ils travaillent au sein de systèmes qu’ils n’ont pas construits. La faiblesse des lois sur la protection de la vie privée et leur application limitée signifient que le contrôle sur les données et la conception reste détenu par quelques entreprises.
Cela rend la transparence et la responsabilisation des plateformes encore plus difficiles.
Qu'est-ce qui manque ? Une compréhension partagée
À l’heure actuelle, les jeunes, les parents, les éducateurs et les entreprises technologiques ne sont pas sur la même longueur d’onde. Les jeunes veulent du contrôle, les parents veulent de la protection et les professionnels veulent de l’évolutivité.
Ces objectifs s’opposent souvent, et sans une vision commune, les règles de confidentialité sont incohérentes, difficiles à appliquer ou tout simplement ignorées.
Nos recherches montrent que la gouvernance éthique de l’IA ne peut pas être résolue par un seul groupe. Nous devons rassembler les jeunes, les familles, les éducateurs et les experts pour façonner l’avenir de l’IA.
Le modèle PEA-AI
Pour guider ce processus, nous avons développé un cadre appelé PEA-AI : Privacy-Ethics Alignment in Artificial Intelligence. Cela permet d’identifier où les valeurs se heurtent et comment aller de l’avant. Le modèle met en évidence quatre tensions clés :
- Contrôle contre confiance : les jeunes veulent de l'autonomie. Les développeurs veulent de la fiabilité. Nous avons besoin de systèmes qui prennent en charge les deux.
- Transparence versus perception : ce qui est considéré comme « clair » pour les experts semble souvent déroutant pour les utilisateurs.
- Surveillance parentale versus voix des jeunes : les politiques doivent équilibrer la protection et le respect de l'action des jeunes.
- Lacunes en matière d'éducation et de sensibilisation : nous ne pouvons pas nous attendre à ce que les jeunes fassent des choix éclairés sans de meilleurs outils et un meilleur soutien.
Que peut-on faire ?
Notre recherche met en évidence six étapes pratiques :
- Simplifiez le consentement. Utilisez des formulaires courts, visuels et rédigés en langage simple. Laissez les jeunes mettre régulièrement à jour leurs paramètres.
- Concevoir pour la confidentialité. Minimisez la collecte de données. Créez des tableaux de bord qui montrent aux utilisateurs ce qui est stocké.
- Expliquez les systèmes. Fournissez des explications claires et non techniques sur le fonctionnement de l’IA, en particulier lorsqu’elle est utilisée dans les écoles.
- Tenir les systèmes responsables. Exécutez des audits, autorisez les commentaires et créez des moyens permettant aux utilisateurs de signaler les dommages.
- Enseignez la confidentialité. Introduisez la culture de l’IA dans les salles de classe. Former les enseignants et impliquer les parents.
- Partagez le pouvoir. Inclure les jeunes dans les décisions politiques technologiques. Construisez des systèmes avec eux, pas seulement pour eux.
L’IA peut être un outil puissant d’apprentissage et de connexion, mais elle doit être construite avec soin. À l’heure actuelle, nos recherches suggèrent que les jeunes ne se sentent pas maîtres de la façon dont l’IA les voit, utilise leurs données ou façonne leur monde.
L’IA éthique commence par l’écoute. Si nous voulons que les systèmes numériques soient équitables, sûrs et fiables, nous devons donner aux jeunes une place à la table et considérer leur voix comme essentielle et non facultative.
