D’anciens employés d’OpenAI mènent une action visant à protéger les lanceurs d’alerte signalant les risques liés à l’intelligence artificielle

D’anciens employés d’OpenAI mènent une action visant à protéger les lanceurs d’alerte signalant les risques liés à l’intelligence artificielle

Un groupe d'employés actuels et anciens d'OpenAI appelle le créateur de ChatGPT et d'autres sociétés d'intelligence artificielle à protéger les employés lanceurs d'alerte qui signalent des risques de sécurité liés à la technologie de l'IA.

Une lettre ouverte publiée mardi demande aux entreprises technologiques de renforcer la protection des lanceurs d’alerte afin que les chercheurs puissent faire part de leurs préoccupations concernant le développement de systèmes d’IA hautement performants en interne et auprès du public sans crainte de représailles.

Daniel Kokotajlo, ancien employé d'OpenAI, qui a quitté l'entreprise plus tôt cette année, a déclaré dans une déclaration écrite que les entreprises technologiques « ne tiennent pas compte des risques et de l'impact de l'IA » alors qu'elles s'efforcent de développer des systèmes d'IA meilleurs que les humains, connus sous le nom d'intelligence artificielle générale.

« J'ai décidé de quitter OpenAI parce que j'avais perdu l'espoir qu'ils agiraient de manière responsable, en particulier dans le domaine de l'intelligence artificielle générale », a-t-il écrit. « Eux et d'autres ont adhéré à l'approche consistant à « agir vite et à casser les choses » et c'est le contraire de ce qui est nécessaire pour une technologie aussi puissante et aussi mal comprise. »

OpenAI a déclaré dans un communiqué en réponse à la lettre qu'elle disposait déjà de mesures permettant aux employés d'exprimer leurs préoccupations, notamment une ligne d'assistance téléphonique anonyme en matière d'intégrité.

« Nous sommes fiers de nos antécédents en matière de fourniture des systèmes d'IA les plus performants et les plus sûrs et croyons en notre approche scientifique pour gérer les risques », indique le communiqué de la société. « Nous convenons qu'un débat rigoureux est crucial étant donné l'importance de cette technologie et nous continuerons à collaborer avec les gouvernements, la société civile et d'autres communautés à travers le monde. »

La lettre compte 13 signataires, dont la plupart sont d'anciens employés d'OpenAI et deux qui travaillent ou ont travaillé pour DeepMind de Google. Quatre sont répertoriés comme employés actuels anonymes d’OpenAI. La lettre demande que les entreprises cessent d'obliger les travailleurs à conclure des accords de « non-dénigrement » qui peuvent les punir s'ils critiquent l'entreprise.

L'indignation des médias sociaux concernant le libellé des documents d'OpenAI concernant les travailleurs qui partent a récemment conduit l'entreprise à libérer tous ses anciens employés de leurs accords de non-dénigrement.

La lettre ouverte bénéficie du soutien des scientifiques pionniers de l'IA Yoshua Bengio et Geoffrey Hinton, qui ont remporté ensemble la plus haute distinction en informatique, et de Stuart Russell. Tous trois ont mis en garde contre les risques que les futurs systèmes d’IA pourraient faire peser sur l’existence de l’humanité.

La lettre intervient alors qu'OpenAI a déclaré qu'il commençait à développer la prochaine génération de technologie d'IA derrière ChatGPT et à former un nouveau comité de sécurité juste après avoir perdu un groupe de dirigeants, dont le co-fondateur Ilya Sutskever, qui faisait partie d'une équipe axée sur développer en toute sécurité les systèmes d’IA les plus puissants. La communauté de recherche en IA au sens large se bat depuis longtemps sur la gravité des risques à court et à long terme de l’IA et sur la manière de les concilier avec la commercialisation de la technologie.

Ces conflits ont contribué à l’éviction et au retour rapide du PDG d’OpenAI, Sam Altman, l’année dernière, et continuent d’alimenter la méfiance à l’égard de son leadership.

Plus récemment, une nouvelle présentation de produits a suscité la colère de la star hollywoodienne Scarlett Johansson, qui a déclaré qu'elle était choquée d'entendre la voix de ChatGPT sonner « étrangement similaire » à la sienne, bien qu'elle ait précédemment rejeté la demande d'Altman de prêter sa voix au système.