Comment ChatGPT va-t-il changer notre façon de penser et de travailler ?

Le succès du chatbot IA en dit autant sur les humains que sur la technologie

ChatGPT a été lancé le 30 novembre 2022, inaugurant ce que beaucoup ont appelé l’année révolutionnaire de l’intelligence artificielle. Quelques jours après sa sortie, ChatGPT est devenu viral. Les captures d’écran de conversations ont fait boule de neige sur les réseaux sociaux et l’utilisation de ChatGPT a grimpé en flèche à un point qui semble avoir surpris même son créateur, OpenAI. En janvier, ChatGPT voyait 13 millions de visiteurs uniques chaque jour, établissant un record pour la base d’utilisateurs à la croissance la plus rapide d’une application grand public.

Tout au long de cette année exceptionnelle, ChatGPT a révélé le pouvoir d’une bonne interface et les dangers du battage médiatique, et a semé les graines d’un nouvel ensemble de comportements humains. En tant que chercheur qui étudie la technologie et le comportement humain en matière d’information, je trouve que l’influence de ChatGPT dans la société vient autant de la façon dont les gens le perçoivent et l’utilisent que de la technologie elle-même.

Les systèmes d’IA générative comme ChatGPT deviennent omniprésents. Depuis la sortie de ChatGPT, une certaine mention de l’IA semble obligatoire dans les présentations, conversations et articles. Aujourd’hui, OpenAI affirme que 100 millions de personnes utilisent ChatGPT chaque semaine.

Outre les personnes qui interagissent avec ChatGPT à la maison, les employés de tous les niveaux jusqu’à la direction des entreprises utilisent le chatbot IA. Dans le domaine de la technologie, l’IA générative est considérée comme la plus grande plateforme depuis l’iPhone, lancé en 2007. Tous les principaux acteurs parient sur l’IA, et le financement à risque dans les startups d’IA est en plein essor.

En cours de route, ChatGPT a soulevé de nombreuses préoccupations, telles que ses implications en matière de désinformation, de fraude, de problèmes de propriété intellectuelle et de discrimination. Dans mon monde de l’enseignement supérieur, une grande partie des discussions ont porté sur la tricherie, qui est devenue l’objet de mes propres recherches cette année.

Leçons de la première année de ChatGPT

Le succès de ChatGPT témoigne avant tout de la puissance d’une bonne interface. L’IA fait déjà partie d’innombrables produits du quotidien depuis plus d’une décennie, de Spotify et Netflix à Facebook et Google Maps. La première version de GPT, le modèle d’IA qui alimente ChatGPT, remonte à 2018. Et même les autres produits d’OpenAI, tels que DALL-E, n’ont pas fait autant de vagues que ChatGPT immédiatement après sa sortie. C’est l’interface basée sur le chat qui a déclenché l’année marquante de l’IA.

Il y a quelque chose de particulièrement séduisant dans le chat. Les humains sont dotés du langage et la conversation est le principal moyen par lequel les gens interagissent les uns avec les autres et déduisent l’intelligence. Une interface basée sur le chat est un mode d’interaction naturel et un moyen pour les gens de découvrir « l’intelligence » d’un système d’IA. Le succès phénoménal de ChatGPT montre une fois de plus que les interfaces utilisateur favorisent l’adoption généralisée de la technologie, du Macintosh aux navigateurs Web en passant par l’iPhone. Le design fait la différence.

Dans le même temps, l’un des principaux atouts de la technologie, à savoir la génération d’un langage convaincant, la rend parfaitement adaptée à la production d’informations fausses ou trompeuses. ChatGPT et d’autres systèmes d’IA générative permettent aux criminels et aux propagandistes de s’attaquer plus facilement aux vulnérabilités humaines. Le potentiel de la technologie à stimuler la fraude et la désinformation est l’une des principales raisons de réglementer l’IA.

Au milieu des véritables promesses et périls de l’IA générative, la technologie a également fourni une autre étude de cas sur le pouvoir du battage médiatique. Cette année, les articles n’ont pas manqué sur la façon dont l’IA va transformer tous les aspects de la société et sur la façon dont la prolifération de la technologie est inévitable.

ChatGPT n’est pas la première technologie à être présentée comme « la prochaine grande nouveauté », mais elle est peut-être unique en ce sens qu’elle est simultanément présentée comme un risque existentiel. De nombreux titans de la technologie et même certains chercheurs en IA ont mis en garde contre le risque que des systèmes d’IA superintelligents émergent et anéantissent l’humanité, même si je pense que ces craintes sont tirées par les cheveux.

L’environnement médiatique favorise le battage médiatique, et le climat actuel du financement du capital-risque alimente en particulier le battage médiatique sur l’IA. Jouer sur les espoirs et les peurs des gens est une recette pour l’anxiété sans aucun des ingrédients nécessaires à une prise de décision judicieuse.

Ce que l’avenir peut nous réserver

Les vannes de l’IA se sont ouvertes en 2023, mais l’année prochaine pourrait entraîner un ralentissement. Le développement de l’IA rencontrera probablement des limites techniques et des obstacles infrastructurels tels que la fabrication de puces et la capacité des serveurs. Simultanément, une réglementation de l’IA est susceptible d’être en route.

Ce ralentissement devrait permettre la formation de normes de comportement humain, à la fois en termes d’étiquette, comme quand et où l’utilisation de ChatGPT est socialement acceptable, et d’efficacité, comme quand et où ChatGPT est le plus utile.

ChatGPT et d’autres systèmes d’IA générative s’intégreront dans les flux de travail des utilisateurs, permettant aux travailleurs d’accomplir certaines tâches plus rapidement et avec moins d’erreurs. De la même manière que les gens ont appris à « chercher des informations sur Google », les humains devront apprendre de nouvelles pratiques pour travailler avec des outils d’IA générative.

Mais les perspectives pour 2024 ne sont pas tout à fait roses. Cela s’annonce comme une année historique pour les élections dans le monde entier, et le contenu généré par l’IA sera presque certainement utilisé pour influencer l’opinion publique et attiser les divisions. Meta a peut-être interdit l’utilisation de l’IA générative dans la publicité politique, mais cela n’empêchera probablement pas ChatGPT et des outils similaires d’être utilisés pour créer et diffuser du contenu faux ou trompeur.

La désinformation politique s’est répandue sur les réseaux sociaux en 2016 ainsi qu’en 2020, et il est pratiquement certain que l’IA générative sera utilisée pour poursuivre ces efforts en 2024. Même en dehors des réseaux sociaux, les conversations avec ChatGPT et des produits similaires peuvent être des sources de désinformation sur leur propre.

En conséquence, une autre leçon que tout le monde, utilisateurs de ChatGPT ou non, devra apprendre au cours de la deuxième année de cette technologie à succès est d’être vigilant lorsqu’il s’agit de médias numériques de toutes sortes.