Enquêtes en ligne susceptibles d'être frauduleuses par des robots automatisés

Enquêtes en ligne susceptibles d’être frauduleuses par des robots automatisés

Imaginez que vous remplissez une enquête en ligne sur l’avenir de votre ville. Vous répondez de manière réfléchie à chaque question, en ajoutant vos idées personnelles.

Imaginez maintenant que des centaines d’autres participants ne soient pas du tout de vraies personnes, mais des robots, des programmes automatisés alimentés par une intelligence artificielle se faisant passer pour des humains.

Que se passe-t-il lorsque ces fausses réponses se mélangent aux vraies ?

Peut-on encore se fier aux résultats ?

Ce n’est pas un scénario hypothétique, c’est exactement ce qui s’est passé lors de l’élaboration du rapport Perth 2050, publié l’année dernière dans le cadre d’une collaboration entre Scitech et le Comité de Perth.

Le rapport, conçu pour façonner l’avenir de la ville, a révélé une tournure surprenante : des robots se faisant passer pour de vrais participants.

Bien que ces robots aient été identifiés et filtrés, l’incident soulève des questions urgentes.

Pourquoi les robots se font-ils passer pour nous ?

Quels autres domaines influencent-ils et que se passe-t-il si personne ne le remarque ?

Largement promue sur les réseaux sociaux, l’enquête Perth 2050 a reçu plus de 2 000 réponses.

Mais après un regain d’activité sur Facebook, il a été découvert qu’environ 600 de ces réponses provenaient de robots.

Il ne s’agissait pas de simples scripts : ils laissaient des commentaires allant d’absurdités à étrangement cohérents et capables d’influencer l’analyse si rien n’était fait.

Bien que les fausses réponses aient été supprimées, l’incident met en lumière un problème croissant dans un monde axé sur l’IA : l’infiltration de robots alors que nous attendons une véritable contribution humaine.

Le problème ne se limite pas aux enquêtes locales, les robots devenant des participants indésirables aux grandes conversations mondiales.

Lors de l’élection présidentielle américaine de 2016, des chercheurs ont découvert que jusqu’à 20 % du discours politique sur Twitter (désormais X) était généré par des robots.

Ils ont amplifié des discours polarisants, diffusé des informations erronées et créé l’illusion d’un large soutien à certains points de vue.

En Australie, des préoccupations similaires ont été révélées lorsque la Commission électorale australienne a tiré la sonnette d’alarme sur le potentiel de désinformation induite par l’IA.

Par exemple, les lois australiennes n’empêchent pas l’utilisation de vidéos politiques truquées.

Cette question devient d’autant plus urgente à l’approche d’une année électorale charnière, avec des élections fédérales et des élections nationales d’Australie occidentale prévues début 2025.

Comment pouvons-nous savoir si les commentaires sur les articles de presse, les publications sur des plateformes comme X ou les réponses à des enquêtes proviennent de personnes authentiques ou de robots ?

Sans mesures efficaces pour détecter et contrecarrer les robots, ils peuvent manipuler l’opinion publique de manière subtile et persistante, une interaction à la fois.

Même si de nombreux robots sont conçus pour effectuer des tâches utiles, ceux qui se font passer pour des humains présentent des risques importants.

Lorsqu’ils participent à des enquêtes, déterminent les tendances en ligne ou même interagissent avec des publicités, ils peuvent déformer les données mêmes sur lesquelles nous nous appuyons pour prendre des décisions.

Que se passe-t-il lorsque les stratégies marketing sont basées sur de fausses interactions ?

Ou lorsque l’opinion publique semble changer parce que ce sont les robots, et non les humains, qui mènent la conversation ?

Les robots se mélangent ; leurs commentaires, likes et partages semblent souvent crédibles, ce qui rend plus difficile la distinction entre influence réelle et artificielle.

L’IA a le pouvoir de transformer des vies, mais une mauvaise utilisation risque d’éroder la confiance dans le débat public.

La transparence, une surveillance rigoureuse, l’éducation et des outils de détection plus intelligents sont essentiels pour garantir son utilisation.

En relevant ces défis, nous pouvons exploiter la promesse de l’IA pour stimuler le progrès, sans créer de confusion ou influencer le débat public, qui doit rester un domaine très humain.

Assurons-nous que l’IA fonctionne pour nous et non contre nous.