Un ingénieur Microsoft est terrifié par l'IA de son entreprise. Il fait tout ce qu'il peut pour le désactiver.
Shane Jones travaille chez Microsoft depuis six ans et, bien qu'il ne travaille pas directement au développement des solutions d'IA de son entreprise, il se consacre à l'analyse de leurs risques potentiels. Le problème est précisément celui-là : selon lui, l’utilisation d’outils comme Copilot Designer, anciennement connu sous le nom de Bing Image Creator, présente de multiples menaces.
Que s'est-il passé. Comme indiqué sur CNBC, en analysant les deux modèles pour détecter les problèmes et les défauts, Jones a détecté que l'outil générait « des démons et des monstres en plus de la terminologie liée au droit à l'avortement, des adolescents avec des fusils d'assaut, des images sexualisées de femmes dans des peintures violentes et la consommation d'alcool ». et drogues chez les mineurs. Chez Google, on subit justement les conséquences d’une IA qui produit des résultats problématiques.
« Ce modèle n'est pas sûr ». Ces images ont été une révélation dangereuse pour cet ingénieur. Celui qui, à son avis, montrait que des modèles comme celui-ci ne sont pas sûrs pour une utilisation massive. Il a commencé à tester l'outil en décembre et a depuis tenté de faire part de ses inquiétudes à l'entreprise.
DALL-E 3 doit être suspendu. Jones a rapporté les résultats de son analyse à l'entreprise, mais bien que Microsoft ait reconnu son inquiétude, ils n'étaient pas disposés à désactiver Copilot Designer, l'un de leurs excellents outils pour gagner la guerre de l'IA. En fait, ils l’ont référé à OpenAI, et là ils n’ont même pas répondu à ses avis. C'est alors qu'il a publié un article sur son compte LinkedIn demandant au board OpenAI de désactiver DALL-E 3, le modèle sur lequel est également basé Copilot Designer.
D'abord le Sénat. Le service juridique de Microsoft a demandé à Jones de supprimer ce message, ce qu'il a fait. Cependant, en janvier, il a envoyé une lettre aux sénateurs américains pour les avertir de ce qui se passait, et a ensuite rencontré plusieurs employés d'un comité sénatorial pour discuter de la question.
Et maintenant la FTC. Jones ne s'est pas arrêté là et a envoyé cette semaine une lettre à Lina Khan, l'une des plus hautes responsables de la FTC, l'entité de régulation américaine. Il en a également envoyé un autre au conseil d'administration de Microsoft et lui a demandé de modifier la notation de l'application Android Copilot Designer afin qu'elle s'adresse clairement à un public adulte.
Ce que dit Microsoft. Jones se plaint d'avoir essayé par tous les moyens de rendre compte de ses conclusions, mais l'entreprise n'a pris aucune mesure. Pendant ce temps, chez Microsoft, ils ont indiqué qu'ils disposaient de « canaux internes solides » pour enquêter et prendre des mesures. Ils indiquent en outre que « nous nous engageons à répondre à toutes les préoccupations des employés conformément aux politiques de notre entreprise, et nous apprécions les efforts des employés pour étudier et tester nos dernières technologies afin de continuer à améliorer leur sécurité ».
Images | Microsoft | Sam Torres
À Simseo | Google a perdu la bataille de l'IA il y a dix ans. Et le problème c'est qu'il n'arrive pas à regagner du terrain