Le boom de l’intelligence artificielle est-il un « train en fuite ? »
En tant que chercheuse en intelligence artificielle, Cynthia Rudin a observé la croissance récente et explosive de la technologie avec un œil attentif et inquiet.
Elle voit à la fois un vaste potentiel et un risque écrasant dans l’état actuel de l’industrie de l’IA, un Far West d’expérimentation, d’investissement et d’expansion incontrôlés. La récente montée en puissance de ChatGPT, un outil basé sur l’IA qui permet aux utilisateurs de s’engager et de commander des produits écrits à partir d’un algorithme informatique, a jeté un nouvel éclairage sur la technologie, et Rudin dit que les législateurs doivent maîtriser tout cela et rapidement.
Rudin est professeur Earl D. McLean, Jr. d’informatique, de génie électrique et informatique, de sciences statistiques, de mathématiques et de biostatistique et bioinformatique à l’Université Duke, où elle dirige le laboratoire d’apprentissage automatique interprétable. Elle a récemment parlé avec Duke Today de ses nombreuses préoccupations liées à la croissance et à la puissance de l’intelligence artificielle et aux industries qui développent des outils avec elle.
Voici des extraits de l’interview :
Vous pensez que la technologie de l’intelligence artificielle est hors de contrôle en ce moment. Pourquoi?
La technologie de l’IA est actuellement comme un train en fuite et nous essayons de le poursuivre à pied. Je me sens comme ça parce que la technologie augmente à un rythme très rapide. C’est incroyable ce qu’il peut faire maintenant par rapport à il y a même un an ou deux.
La désinformation peut être générée très, très rapidement. En outre, les systèmes de recommandation (qui poussent le contenu vers les gens) dans des directions que nous ne voulons pas qu’ils soient. Et j’ai l’impression que les gens n’ont pas encore eu l’occasion d’en parler. Ce sont vraiment les entreprises technologiques qui nous l’imposent plutôt que les gens qui ont la chance de décider eux-mêmes ce qu’ils veulent.
Existe-t-il des incitations pour les entreprises technologiques à agir de manière éthique en matière d’IA ?
Ils sont incités à faire des profits, et s’il s’agit de monopoles, ils ne sont pas vraiment incités à rivaliser avec d’autres entreprises en termes d’éthique ou d’autres choses que les gens veulent. Le problème est que lorsqu’ils disent des choses comme « nous voulons démocratiser l’IA », il est vraiment difficile de croire cela alors qu’ils gagnent des milliards et des milliards de dollars. Il serait donc préférable que ces entreprises ne soient pas des monopoles et que les gens aient le choix de la manière dont ils veulent que cette technologie soit utilisée.
Pourquoi est-il si important, selon vous, que le gouvernement fédéral réglemente les entreprises technologiques?
Le gouvernement devrait certainement intervenir et réglementer l’IA. Ce n’est pas comme s’ils n’avaient pas eu assez d’avertissement. La technologie construit depuis des années. La même technologie qui a construit ChatGPT a été utilisée pour construire des chatbots dans le passé qui sont en fait assez bons. Pas aussi bon que ChatGPT, mais plutôt bon. Nous avons donc eu beaucoup d’avertissements. Les systèmes de recommandation de contenu sont utilisés depuis de nombreuses années maintenant et nous n’avons pas encore imposé de réglementation à leur sujet. Une partie de la raison est que le gouvernement n’a pas encore de mécanisme pour réglementer l’IA. Il n’y a pas de commission (fédérale) sur l’IA. Il y a des commissions sur beaucoup d’autres choses, mais pas sur l’IA.
Comment cette révolution de l’IA pourrait-elle affecter le plus les gens dans leur vie quotidienne ? A quoi doivent-ils faire attention ?
L’IA affecte les gens, les gens ordinaires, chaque jour de leur vie. Lorsque vous accédez à un site Web sur Internet, les publicités de ce site Web sont diffusées uniquement pour vous. Chaque fois que vous regardez du contenu sur YouTube, les systèmes de recommandation recommandant la prochaine chose que vous regardez sont basés sur vos données. Lorsque vous lisez Twitter, le contenu qui vous est donné, et dans quel ordre il vous est donné, est conçu par un algorithme. Toutes ces choses sont des algorithmes d’IA qui ne sont essentiellement pas réglementés. Ainsi, les gens ordinaires interagissent tout le temps avec l’IA.
Les gens ont-ils vraiment leur mot à dire sur la façon dont cette technologie leur est imposée ?
Généralement, non. Vous n’avez pas vraiment le moyen de modifier l’algorithme pour vous fournir le contenu que vous souhaitez. Si vous savez que vous êtes plus heureux lorsque votre algorithme est réglé d’une certaine manière, il n’y a pas vraiment de moyen pour vous de le changer. Ce serait bien si vous pouviez choisir parmi une variété d’entreprises pour un grand nombre de ces systèmes de recommandation de différents types. Malheureusement, il n’y a pas trop d’entreprises, vous n’avez donc pas vraiment le choix.
Quel est le pire scénario que vous pouvez envisager s’il n’y a pas de réglementation ?
La désinformation n’est pas innocente. Cela fait de vrais dommages aux gens sur le plan personnel. Cela a été la cause de guerres dans le passé. Pensez à la Seconde Guerre mondiale, pensez au Vietnam. Ce qui m’inquiète vraiment, c’est que la désinformation mènera à une guerre à l’avenir, et l’IA sera au moins en partie responsable.
Beaucoup de ces entreprises prétendent simplement qu’elles « démocratisent » l’intelligence artificielle avec ces nouveaux outils.
Une chose qui m’inquiète, c’est que vous avez ces entreprises qui créent ces outils, et elles sont très enthousiastes à l’idée de mettre ces outils à la disposition des gens. Et certainement les outils peuvent être utiles. Mais, vous savez, je pense que s’ils étaient victimes d’intimidation basée sur l’IA, ou s’ils avaient des images d’eux fausses, générées en ligne dont ils ne voulaient pas, ou s’ils étaient sur le point d’être victimes d’un Massacre de désinformation propulsé par l’IA, ils pourraient se sentir différemment.
Quelle est la place de la modération de contenu dans tout cela ?
Il y a beaucoup de contenu très dangereux et beaucoup de fausses informations dangereuses qui ont coûté la vie à de nombreuses personnes. Je parle spécifiquement de la désinformation autour des massacres des Rohingyas, autour de l’insurrection du 6 janvier 2021, de la désinformation sur les vaccins. S’il est important que nous ayons la liberté d’expression, il est également important que le contenu soit modéré et qu’il ne soit pas diffusé. Donc, même si les gens disent des choses avec lesquelles nous ne sommes pas d’accord, nous n’avons pas besoin de faire circuler ces choses en utilisant des algorithmes. Si la désinformation de trolls de différents pays essaie d’avoir un impact politique ou d’avoir un impact social, ces trolls peuvent prendre le contrôle de nos algorithmes et planter de la désinformation.
Nous ne voulons vraiment pas que cela se produise. Contenu pédopornographique (par exemple) : nous devons être en mesure de le filtrer d’Internet.