L'IA de Google n'est pas trop « réveillée ». C'est trop précipité
As tu entendu? Google a été accusé de mener une vendetta secrète contre les Blancs. Elon Musk a échangé des tweets sur le complot sur X plus de 150 fois au cours de la semaine dernière, tous concernant des portraits générés avec le nouveau chatbot AI de Google, Gemini.
Ben Shapiro, le New York Post et Musk ont été rendus apoplectiques par la diversité des images : des femmes papes ! Des nazis noirs ! Pères fondateurs autochtones! Google s'est excusé et a suspendu la fonctionnalité.
En réalité, le problème est que l’entreprise a fait un mauvais travail en corrigeant excessivement une technologie qui avait un caractère raciste. Non, son PDG Sundar Pichai n’a pas été infecté par le virus de l’esprit éveillé. Au contraire, il est trop obsédé par la croissance et néglige les contrôles appropriés sur ses produits.
Il y a trois ans, Google a eu des ennuis lorsque son outil de marquage de photos a commencé à qualifier certains Noirs de singes. Il a fermé la fonctionnalité, puis a aggravé le problème en licenciant deux de ses principaux chercheurs en éthique de l’IA.
C'étaient ces personnes dont le travail consistait à s'assurer que la technologie de Google était juste dans la façon dont elle représentait les femmes et les minorités. Pas trop diversifié comme le nouveau Gémeaux, mais équitable et équilibré.
Lorsque Gemini a commencé cette semaine à produire des images de soldats allemands de la Seconde Guerre mondiale qui étaient noirs et asiatiques, c'était le signe que l'équipe d'éthique n'était pas devenue plus puissante, comme le suggèrent Musk et d'autres, mais qu'elle était ignorée dans la course de Google contre Microsoft Corp. et OpenAI domineront la recherche Web générative. Un investissement approprié aurait conduit à une approche plus intelligente de la diversité dans la génération d’images, mais Google négligeait ce travail.
Les panneaux sont là depuis un an. Les personnes qui testent la sécurité des systèmes d’intelligence artificielle sont 30 fois plus nombreuses que celles dont le travail consiste à les rendre plus grands et plus performants, selon une estimation du Center for Humane Technology.
Souvent, ils crient dans le vide et on leur dit de ne pas gêner. Le précédent chatbot de Google, Bard, était si défectueux qu'il a commis des erreurs factuelles dans sa démo marketing.
Les employés avaient lancé des avertissements à ce sujet, mais les managers n'ont pas voulu les écouter. L'un d'entre eux a posté sur un forum de discussion interne que Bard était « pire qu'inutile : s'il vous plaît, ne vous lancez pas », et bon nombre des 7 000 employés qui ont vu le message étaient d'accord, selon une enquête de Bloomberg News.
Peu de temps après, les ingénieurs qui avaient procédé à une évaluation des risques ont déclaré à leurs supérieurs de Google que Bard pouvait causer des dommages et qu'il n'était pas prêt. Vous pouvez probablement deviner ce que Google a fait ensuite : il a rendu Bard au public.
L’IA précipitée et défectueuse de Google n’est pas la seule. Le chatbot Bing de Microsoft n'était pas seulement inexact, il était déséquilibré, déclarant à un chroniqueur du New York Times peu après sa sortie qu'il était amoureux de lui et voulait détruire des choses. Google a déclaré que l'IA responsable était une priorité absolue et qu'il « continuait à investir dans les équipes » qui appliquent ses principes d'IA aux produits. Une porte-parole de Google a déclaré que la société « continue de traiter rapidement les cas dans lesquels (Gemini) ne répond pas de manière appropriée ».
OpenAI, qui a lancé la course des Big Tech pour prendre pied dans l'IA générative, a normalisé la justification de nous traiter tous comme des cobayes avec de nouveaux outils d'IA. Son site Web décrit une philosophie de « déploiement itératif », dans laquelle il lance rapidement des produits comme ChatGPT pour étudier leur sécurité et leur impact et pour nous préparer à une IA plus puissante à l'avenir. Pichai de Google dit désormais à peu près la même chose.
En publiant des outils d'IA à moitié cuits, il nous donne « le temps de nous adapter » au moment où l'IA deviendra super puissante, selon les commentaires qu'il a faits dans une interview à 60 Minutes l'année dernière.
Lorsqu'on lui a demandé ce qui l'empêchait de dormir la nuit, Pichai a répondu, sans aucune ironie, qu'il savait que l'IA pouvait être « très dangereuse si elle était mal déployée ». Alors quelle a été sa solution ?
Pichai n'a pas mentionné investir davantage dans les chercheurs qui rendent l'IA sûre, précise et éthique, mais a souligné une plus grande réglementation, une solution qui échappe à son contrôle.
« La création de vidéos deepfakes qui nuisent à la société doit avoir des conséquences », a-t-il déclaré, faisant référence aux vidéos d'IA qui pourraient propager des informations erronées. « Quiconque travaille avec l'IA depuis un certain temps se rend compte que c'est quelque chose de si différent et de si profond que nous aurions besoin de réglementations sociétales pour réfléchir à la manière de nous adapter. »
C'est un peu comme si le chef d'un restaurant disait : « Rendre les gens malades à cause de la salmonelle, c'est mauvais, et nous avons besoin de plus d'inspecteurs des aliments pour vérifier nos aliments crus », alors qu'ils savent très bien qu'il n'y a pas d'inspecteurs des aliments à proprement parler et qu'ils ne gagneront pas. Ce ne sera pas avant des années. Cela leur donne le droit de continuer à distribuer de la viande ou du poisson avarié.
La même chose est vraie dans l’IA. Avec des réglementations dans un avenir lointain, Pichai sait qu’il incombe à son entreprise de construire des systèmes d’IA équitables et sûrs. Mais maintenant qu’il est pris dans la course pour intégrer rapidement l’IA générative dans tout, il n’y a guère d’incitation à s’assurer que ce soit le cas.
Nous connaissons le bug de diversité des Gémeaux grâce à tous les tweets sur X, mais le modèle d'IA peut avoir d'autres problèmes que nous ignorons – des problèmes qui ne déclenchent peut-être pas Elon Musk mais qui n'en sont pas moins insidieux. Les femmes papes et les pères fondateurs noirs sont le produit d’un problème plus profond qui dure depuis des années et qui consiste à faire passer la croissance et la domination du marché avant la sécurité. Attendez-vous à ce que notre rôle de cobayes continue jusqu’à ce que cela change.