Un nouveau modèle d'IA peut aider à prévenir les violations de données dommageables et coûteuses

Les chercheurs visent à ramener les humains dans la boucle à mesure que l’utilisation et l’abus de l’IA augmentent

Crédit : Pixabay/CC0 Domaine public

L’intelligence artificielle fait la une des journaux – permettant de nouvelles innovations qui stimulent les performances des entreprises – mais les implications négatives pour la société sont une réflexion après coup.

Comment les humains peuvent-ils se remettre dans la boucle dans la quête d’une société meilleure pour tous ?

Une équipe transatlantique de chercheurs, dont deux de l’Université du Michigan, a passé en revue la recherche sur les systèmes d’information sur ce que l’on appelle la « quatrième révolution industrielle » et a constaté une concentration écrasante sur les avantages commerciaux de la technologie.

Cette focalisation signifie que beaucoup moins d’attention est accordée aux implications sociétales – ce que les chercheurs appellent « l’augmentation des risques et des dommages pour les humains ».

« Nous parlons de l’IA dans le mauvais sens – en nous concentrant sur la technologie et non sur les personnes – en nous éloignant de ce que nous voulons, comme de meilleurs médicaments, des soins aux personnes âgées et des réglementations de sécurité, et vers des choses que nous ne voulons pas, comme les deepfakes nocifs, pertes d’emplois et prise de décision biaisée », a déclaré Nigel Melville, professeur agrégé de technologie et d’opérations à la Ross School of Business de l’UM et directeur du programme de science du design.

« Notre nouveau cadre est une tentative basée sur la théorie d’aller dans une nouvelle direction en recentrant les humains dans les actions et les résultats dans le discours sur les machines toujours plus intelligentes. »

Melville est co-auteur de l’étude, qui apparaît dans le Revue des systèmes d’informationavec Lionel Robert, professeur à l’UM School of Information, et Xiao Xiao, professeur associé à la Copenhagen Business School.

En prenant ChatGPT comme exemple, les chercheurs affirment que les développeurs n’ont probablement jamais eu l’intention d’autoriser la triche des étudiants ou les lettres de recommandation générées par l’IA. Mais il est clair qu’ils n’ont pas pleinement pris en compte les implications sociales de leur chatbot IA, se concentrant plutôt sur des avantages tels que la réduction des coûts opérationnels.

Leur étude vise à aider la société, y compris les régulateurs qui envisagent de réglementer la sécurité de l’IA et les organisations qui envisagent d’adopter l’IA, à comprendre les implications sociétales de machines toujours plus intelligentes.

Par exemple, les résultats suggèrent un changement dans la façon dont les politiques sont élaborées. À l’heure actuelle, les législateurs envisagent de manière réactive les réglementations sur les technologies qui entrent déjà sur le marché, de sorte que les lois ont tendance à adopter une vision étroite de l’IA. Au lieu de cela, l’étude suggère qu’ils doivent porter leur attention sur la situation dans son ensemble et rédiger des lois proactives qui traitent de quatre capacités émergentes des machines :

  • Prise de décision : où tracer la ligne sur la prise de décision des machines, comment déplacer cette ligne à mesure que les machines progressent et comment gérer de manière proactive les préjugés et autres formes de décisions invalides ?
  • Automatisation de la créativité : comment allons-nous gérer les pertes d’emplois dans des domaines créatifs tels que l’illustration visuelle et la musique, qui détient les droits sur le travail généré par l’IA et que faire des contrefaçons parfaites et bon marché de n’importe qui ?
  • Relations machine-homme : Alors que les humains interagissent de plus en plus avec des machines dotées de capacités similaires à celles de l’homme, comment les travailleurs réagiront-ils aux patrons de l’IA, comment les « amis de l’IA » pourraient-ils influencer la démocratie et comment les relations humaines elles-mêmes pourraient-elles changer au fil du temps ?
  • Machines faisant équipe avec d’autres machines : comment gérer les capacités exponentielles de l’association intermachines, élaborer des règles sur l’interaction des machines pour équilibrer les résultats positifs avec les risques et déterminer le degré d’autonomie approprié lorsque l’on considère les risques de l’association intermachines comme des systèmes complexes ?

Leurs travaux suggèrent que la communauté des chercheurs peut soutenir cette entreprise en définissant l’IA comme des capacités de cognition et de communication semblables à celles d’une machine humaine. Ce cadrage centré sur l’humain s’éloigne de l’obscurité de la technologie, se concentrant plutôt sur ce que les machines font réellement en termes humains ainsi que sur les implications pour les humains, la société et les entreprises.

Pourtant, selon l’étude, beaucoup plus de recherches sont nécessaires pour s’appuyer sur ces idées, telles que l’application de cadres éthiques pour soutenir les politiques relatives aux capacités des machines.

Les chercheurs affirment que tout le monde sera de plus en plus affecté par les soi-disant machines intelligentes qui imitent les capacités humaines, à la maison, au travail, dans le système juridique et dans d’autres sphères de la société. Il n’y a aucune raison pour que ces machines fonctionnent dans le monde avant que les problèmes ne soient reconnus – elles pourraient être corrigées ou même abandonnées si elles sont détectées tôt, ou conçues pour atténuer leur apparition dès le départ.

« À court terme, notre approche peut simplement limiter leurs impacts négatifs, mais à long terme, elle peut conduire au développement et au déploiement de systèmes d’IA en fonction de leurs avantages et de leurs coûts pour notre société », a déclaré Robert.

Fourni par l’Université du Michigan