L'IA peut désormais assister à une réunion et écrire du code pour vous.  Voici pourquoi vous devriez être prudent

L’IA peut désormais assister à une réunion et écrire du code pour vous. Voici pourquoi vous devriez être prudent

Microsoft a récemment lancé une nouvelle version de tous ses logiciels avec l’ajout d’un assistant d’intelligence artificielle (IA) capable d’effectuer diverses tâches à votre place. Copilot peut résumer les conversations verbales lors des réunions en ligne Teams, présenter des arguments pour ou contre un point particulier sur la base de discussions verbales et répondre à une partie de vos e-mails. Il peut même écrire du code informatique.

Cette technologie en développement rapide semble nous rapprocher encore plus d’un avenir où l’IA nous facilitera la vie et supprimera toutes les choses ennuyeuses et répétitives que nous devons faire en tant qu’humains.

Mais même si ces avancées sont toutes très impressionnantes et utiles, nous devons être prudents dans notre utilisation de modèles linguistiques aussi volumineux (LLM). Malgré leur nature intuitive, ils nécessitent néanmoins des compétences pour les utiliser de manière efficace, fiable et sûre.

Grands modèles de langage

Les LLM, un type de réseau neuronal « d’apprentissage profond », sont conçus pour comprendre l’intention de l’utilisateur en analysant la probabilité de différentes réponses en fonction de l’invite fournie. Ainsi, lorsqu’une personne saisit une invite, le LLM examine le texte et détermine la réponse la plus probable.

ChatGPT, un exemple frappant de LLM, peut fournir des réponses à des questions sur un large éventail de sujets. Cependant, malgré ses réponses apparemment bien informées, ChatGPT ne possède pas de connaissances réelles. Ses réponses sont simplement les résultats les plus probables en fonction de l’invite donnée.

Lorsque les gens fournissent à ChatGPT, Copilot et autres LLM des descriptions détaillées des tâches qu’ils souhaitent accomplir, ces modèles peuvent exceller dans la fourniture de réponses de haute qualité. Cela peut inclure la génération de texte, d’images ou de code informatique.

Mais en tant qu’êtres humains, nous repoussons souvent les limites de ce que la technologie peut faire et de ce pour quoi elle a été conçue à l’origine. Par conséquent, nous commençons à utiliser ces systèmes pour effectuer le travail que nous aurions dû faire nous-mêmes.

Pourquoi une dépendance excessive à l’IA pourrait être un problème

Malgré leurs réponses apparemment intelligentes, nous ne pouvons pas faire aveuglément confiance aux LLM quant à leur précision ou leur fiabilité. Nous devons soigneusement évaluer et vérifier leurs résultats, en veillant à ce que nos suggestions initiales se reflètent dans les réponses fournies.

Pour vérifier et valider efficacement les résultats du LLM, nous devons avoir une solide compréhension du sujet. Sans expertise, nous ne pouvons pas fournir l’assurance qualité nécessaire.

Cela devient particulièrement critique dans les situations où nous utilisons les LLM pour combler les lacunes de nos propres connaissances. Ici, notre manque de connaissances peut nous conduire à une situation dans laquelle nous sommes tout simplement incapables de déterminer si le résultat est correct ou non. Cette situation peut survenir lors de la génération de texte et du codage.

Utiliser l’IA pour assister à des réunions et résumer les discussions présente des risques évidents en termes de fiabilité. Bien que le compte rendu de la réunion soit basé sur une transcription, les notes de réunion sont toujours générées de la même manière que les autres textes des LLM. Ils sont toujours basés sur des modèles de langage et des probabilités de ce qui a été dit, ils nécessitent donc une vérification avant de pouvoir être mis en œuvre.

Ils souffrent également de problèmes d’interprétation dus aux homophones, des mots qui se prononcent de la même manière mais qui ont des significations différentes. Les gens comprennent bien ce que l’on entend dans de telles circonstances en raison du contexte de la conversation.

Mais l’IA n’est pas douée pour déduire le contexte et ne comprend pas non plus les nuances. Ainsi, s’attendre à ce qu’il formule des arguments basés sur une transcription potentiellement erronée pose encore d’autres problèmes.

La vérification est encore plus difficile si nous utilisons l’IA pour générer du code informatique. Tester le code informatique avec des données de test est la seule méthode fiable pour valider sa fonctionnalité. Même si cela démontre que le code fonctionne comme prévu, cela ne garantit pas que son comportement soit conforme aux attentes du monde réel.

Supposons que nous utilisions l’IA générative pour créer du code pour un outil d’analyse des sentiments. L’objectif est d’analyser les avis sur les produits et de classer les sentiments comme positifs, neutres ou négatifs. Nous pouvons tester la fonctionnalité du système et valider correctement les fonctions du code, c’est-à-dire qu’il est solide d’un point de vue technique de programmation.

Cependant, imaginez que nous déployons un tel logiciel dans le monde réel et qu’il commence à classer les critiques de produits sarcastiques comme positives. Le système d’analyse des sentiments ne dispose pas des connaissances contextuelles nécessaires pour comprendre que le sarcasme n’est pas utilisé comme une rétroaction positive, bien au contraire.

Vérifier que le résultat d’un code correspond aux résultats souhaités dans des situations nuancées comme celle-ci nécessite une expertise.

Les non-programmeurs n’auront aucune connaissance des principes de génie logiciel utilisés pour garantir l’exactitude du code, tels que la planification, la méthodologie, les tests et la documentation. La programmation est une discipline complexe et le génie logiciel est devenu un domaine permettant de gérer la qualité des logiciels.

Il existe un risque important, comme mes propres recherches l’ont montré, que des non-experts négligent ou sautent des étapes critiques du processus de conception de logiciels, conduisant à un code de qualité inconnue.

Validation et vérification

Les LLM tels que ChatGPT et Copilot sont des outils puissants dont nous pouvons tous bénéficier. Mais nous devons faire attention à ne pas faire aveuglément confiance aux résultats qui nous sont donnés.

Nous sommes au début d’une grande révolution basée sur cette technologie. L’IA offre des possibilités infinies, mais elle doit être façonnée, contrôlée et vérifiée. Et à l’heure actuelle, les êtres humains sont les seuls à pouvoir le faire.