Les développeurs de logiciels font preuve de moins de scepticisme constructif lorsqu’ils utilisent des assistants IA que lorsqu’ils travaillent avec des collègues humains
Lors de l'écriture du code d'un programme, les développeurs de logiciels travaillent souvent en binôme, une pratique qui réduit les erreurs et encourage le partage des connaissances. De plus en plus, les assistants IA sont désormais utilisés pour ce rôle.
Mais ce changement dans les pratiques de travail n'est pas sans inconvénients, comme le révèle une nouvelle étude empirique réalisée par des informaticiens de Sarrebruck. Les développeurs ont tendance à examiner de manière moins critique le code généré par l’IA et ils en apprennent moins. Ces résultats seront présentés lors de la 40e conférence internationale IEEE/ACM sur le génie logiciel automatisé (ASE 2025) à Séoul.
Lorsque deux développeurs de logiciels collaborent sur un projet de programmation (connu dans les cercles techniques sous le nom de programmation en binôme), cela tend à entraîner une amélioration significative de la qualité du logiciel résultant.
« Les développeurs peuvent souvent s'inspirer mutuellement et contribuer à éviter des solutions problématiques. Ils peuvent également partager leur expertise, garantissant ainsi qu'un plus grand nombre de personnes au sein de leur organisation connaissent la base de code », explique Sven Apel, professeur d'informatique à l'Université de la Sarre.
Avec son équipe, Apel a examiné si cette approche collaborative fonctionnait aussi bien lorsque l'un des partenaires était un assistant IA. Dans l'étude, 19 étudiants ayant une expérience en programmation ont été divisés en paires : six ont travaillé avec un partenaire humain, tandis que sept ont collaboré avec un assistant IA. La méthodologie de mesure du transfert de connaissances a été développée par Niklas Schneider dans le cadre de son mémoire de licence.
Pour l’étude, les chercheurs ont utilisé GitHub Copilot, un assistant de codage basé sur l’IA introduit par Microsoft en 2021 et qui, comme des produits similaires d’autres sociétés, a désormais été largement adopté par les développeurs de logiciels. Ces outils ont considérablement modifié la façon dont les logiciels sont écrits.
« Cela permet un développement plus rapide et la génération de gros volumes de code en peu de temps. Mais cela facilite également le passage d'erreurs inaperçues, avec des conséquences qui ne peuvent apparaître que plus tard », explique Apel. L’équipe souhaitait comprendre quels aspects de la collaboration humaine améliorent la programmation et si ceux-ci peuvent être reproduits dans des couples homme-IA. Les participants avaient pour tâche de développer des algorithmes et de les intégrer dans un environnement de projet partagé.
« Le transfert de connaissances est un élément clé de la programmation en binôme », explique Apel. « Les développeurs discuteront continuellement des problèmes actuels et travailleront ensemble pour trouver des solutions. Cela n'implique pas simplement de poser des questions et d'y répondre, cela signifie également que les développeurs partagent des stratégies de programmation efficaces et apportent leurs propres idées. »
Selon l’étude, de tels échanges ont également eu lieu au sein des équipes assistées par l’IA, mais les interactions étaient moins intenses et couvraient un éventail de sujets plus restreint.
« Dans de nombreux cas, l'accent était uniquement mis sur le code », explique Apel. « En revanche, les programmeurs humains travaillant ensemble étaient plus susceptibles de s'éloigner et de s'engager dans des discussions plus larges et étaient moins concentrés sur la tâche immédiate. »
Une découverte a particulièrement surpris l'équipe de recherche : « Les programmeurs qui travaillaient avec un assistant IA étaient plus susceptibles d'accepter les suggestions générées par l'IA sans évaluation critique. Ils pensaient que le code fonctionnerait comme prévu », explique Apel. « Les couples humains, en revanche, étaient beaucoup plus susceptibles de poser des questions critiques et étaient plus enclins à examiner attentivement les contributions de chacun. »
Il pense que cette tendance à faire plus confiance à l'IA qu'à ses collègues humains peut également s'étendre à d'autres domaines, déclarant : « Je pense que cela a à voir avec un certain degré de complaisance : une tendance à supposer que le résultat de l'IA est probablement suffisant, même si nous savons que les assistants IA peuvent aussi faire des erreurs.
Apel prévient que cette dépendance non critique à l'égard de l'IA pourrait conduire à l'accumulation d'une « dette technique », qui peut être considérée comme les coûts cachés des travaux futurs nécessaires pour corriger ces erreurs, compliquant ainsi le développement futur du logiciel.
Pour Apel, l’étude met en évidence le fait que les assistants IA ne sont pas encore capables de reproduire la richesse de la collaboration humaine dans le développement de logiciels.
« Ils sont certainement utiles pour des tâches simples et répétitives », explique Apel. « Mais pour des problèmes plus complexes, l'échange de connaissances est essentiel, et cela fonctionne actuellement mieux entre humains, éventuellement avec des assistants IA comme outils de support. »
Apel souligne la nécessité de poursuivre les recherches sur la manière dont les humains et l’IA peuvent collaborer efficacement tout en conservant le type d’œil critique qui caractérise la collaboration humaine.
