Le fabricant de ChatGPT lance un outil de détection d'IA

Le fabricant de ChatGPT lance un outil de détection d’IA

Le logo d’OpenAI, le fabricant de ChatGPT, apparaît sur un téléphone portable, à New York, le mardi 31 janvier 2023. OpenAI lance un nouvel outil dans le but de freiner sa réputation de machine à tricher en roue libre avec un nouvel outil Mardi qui peut aider les enseignants à détecter si un élève ou une intelligence artificielle a écrit ce devoir. Crédit : AP Photo/Richard Drew

Le fabricant de ChatGPT tente de freiner sa réputation de machine à tricher en roue libre avec un nouvel outil qui peut aider les enseignants à détecter si un élève ou une intelligence artificielle a écrit ce devoir.

Le nouveau classificateur de texte AI lancé mardi par OpenAI fait suite à une discussion d’une semaine dans les écoles et les collèges sur les craintes que la capacité de ChatGPT à écrire à peu près n’importe quoi sur commande puisse alimenter la malhonnêteté académique et entraver l’apprentissage.

OpenAI prévient que son nouvel outil – comme d’autres déjà disponibles – n’est pas infaillible. La méthode de détection du texte écrit par l’IA « est imparfaite et elle se trompera parfois », a déclaré Jan Leike, responsable de l’équipe d’alignement d’OpenAI chargée de rendre ses systèmes plus sûrs.

« Pour cette raison, il ne faut pas s’y fier uniquement lors de la prise de décisions », a déclaré Leike.

Les adolescents et les étudiants faisaient partie des millions de personnes qui ont commencé à expérimenter ChatGPT après son lancement le 30 novembre en tant qu’application gratuite sur le site Web d’OpenAI. Et tandis que beaucoup ont trouvé des moyens de l’utiliser de manière créative et sans danger, la facilité avec laquelle il pouvait répondre aux questions du test à faire à la maison et aider à d’autres devoirs a provoqué la panique chez certains éducateurs.

Au moment où les écoles ont ouvert leurs portes pour la nouvelle année, New York, Los Angeles et d’autres grands districts scolaires publics ont commencé à bloquer son utilisation dans les salles de classe et sur les appareils scolaires.

Le district des écoles publiques de Seattle a initialement bloqué ChatGPT sur tous les appareils scolaires en décembre, mais a ensuite ouvert l’accès aux éducateurs qui souhaitent l’utiliser comme outil pédagogique, a déclaré Tim Robinson, le porte-parole du district.

« Nous ne pouvons pas nous permettre de l’ignorer », a déclaré Robinson.

Le district envisage également d’étendre éventuellement l’utilisation de ChatGPT dans les salles de classe pour permettre aux enseignants de l’utiliser pour former les étudiants à être de meilleurs penseurs critiques et pour permettre aux étudiants d’utiliser l’application en tant que « tuteur personnel » ou pour aider à générer de nouvelles idées lorsqu’ils travaillent sur un devoir. , dit Robinson.

Les districts scolaires à travers le pays disent qu’ils voient la conversation autour de ChatGPT évoluer rapidement.

« La réaction initiale a été » OMG, comment allons-nous endiguer la marée de toutes les tricheries qui se produiront avec ChatGPT «  », a déclaré Devin Page, spécialiste de la technologie au sein du district scolaire public du comté de Calvert dans le Maryland. Maintenant, il y a une prise de conscience croissante que « c’est l’avenir » et le bloquer n’est pas la solution, a-t-il déclaré.

« Je pense que nous serions naïfs si nous n’étions pas conscients des dangers que représente cet outil, mais nous ne servirions pas non plus nos étudiants si nous leur interdisions, ainsi qu’à nous, de l’utiliser dans toute sa puissance potentielle », a déclaré Page, qui pense que les districts comme le sien finira par débloquer ChatGPT, surtout une fois que le service de détection de l’entreprise sera en place.

Attention aux tricheurs : le fabricant de ChatGPT publie un outil de détection d'IA

Le logo d’OpenAI, le fabricant de ChatGPT, apparaît sur un téléphone portable, à New York, le mardi 31 janvier 2023. OpenAI lance un nouvel outil dans le but de freiner sa réputation de machine à tricher en roue libre avec un nouvel outil Mardi qui peut aider les enseignants à détecter si un élève ou une intelligence artificielle a écrit ce devoir. Crédit : AP Photo/Richard Drew

OpenAI a souligné les limites de son outil de détection dans un article de blog mardi, mais a déclaré qu’en plus de dissuader le plagiat, il pourrait aider à détecter les campagnes de désinformation automatisées et autres utilisations abusives de l’IA pour imiter les humains.

Plus un passage de texte est long, plus l’outil est efficace pour détecter si une IA ou un humain a écrit quelque chose. Tapez n’importe quel texte – un essai d’admission à l’université ou une analyse littéraire de « l’homme invisible » de Ralph Ellison – et l’outil le qualifiera de « très improbable, improbable, incertain s’il est, possible ou probable » généré par l’IA .

Mais tout comme ChatGPT lui-même, qui a été formé sur une énorme quantité de livres numérisés, de journaux et d’écrits en ligne, mais crache souvent avec confiance des mensonges ou des bêtises, il n’est pas facile d’interpréter le résultat.

« Nous ne savons pas fondamentalement à quel type de modèle il prête attention, ni comment cela fonctionne en interne », a déclaré Leike. « Il n’y a vraiment pas grand-chose que nous puissions dire à ce stade sur le fonctionnement réel du classificateur. »

Les établissements d’enseignement supérieur du monde entier ont également commencé à débattre de l’utilisation responsable de la technologie de l’IA. Sciences Po, l’une des universités les plus prestigieuses de France, a interdit son utilisation la semaine dernière et a averti que quiconque utilisant subrepticement ChatGPT et d’autres outils d’IA pour produire des travaux écrits ou oraux pourrait être banni de Sciences Po et d’autres institutions.

En réponse au contrecoup, OpenAI a déclaré qu’il travaillait depuis plusieurs semaines à l’élaboration de nouvelles directives pour aider les éducateurs.

« Comme beaucoup d’autres technologies, il se peut qu’un district décide qu’il est inapproprié de l’utiliser dans leurs salles de classe », a déclaré Lama Ahmad, chercheur en politique d’OpenAI. « Nous ne les poussons pas vraiment dans un sens ou dans un autre. Nous voulons simplement leur donner les informations dont ils ont besoin pour pouvoir prendre les bonnes décisions pour eux. »

Il s’agit d’un rôle public inhabituel pour la startup de San Francisco axée sur la recherche, désormais soutenue par des milliards de dollars d’investissements de son partenaire Microsoft et faisant l’objet d’un intérêt croissant de la part du public et des gouvernements.

Le ministre français de l’Economie numérique, Jean-Noël Barrot, a récemment rencontré en Californie des dirigeants d’OpenAI, dont le PDG Sam Altman, et une semaine plus tard, il a déclaré à un public du Forum économique mondial de Davos, en Suisse, qu’il était optimiste quant à la technologie. Mais le ministre du gouvernement – ancien professeur au Massachusetts Institute of Technology et à l’école de commerce française HEC à Paris – a déclaré qu’il y avait aussi des questions éthiques difficiles qui devront être abordées.

« Donc, si vous êtes à la faculté de droit, il y a lieu de s’inquiéter car, évidemment, ChatGPT, entre autres outils, sera en mesure de proposer des examens relativement impressionnants », a-t-il déclaré. « Si vous êtes dans la faculté d’économie, tout va bien car ChatGPT aura du mal à trouver ou à fournir quelque chose qui est attendu lorsque vous êtes dans une faculté d’économie de niveau supérieur. »

Il a déclaré qu’il sera de plus en plus important pour les utilisateurs de comprendre les bases du fonctionnement de ces systèmes afin qu’ils sachent quels biais peuvent exister.