Le nouveau décret de Biden sur l'IA devrait dynamiser la Silicon Valley

L’IA remplit les conditions pour avoir le libre arbitre – nous devons lui donner une boussole morale, explique le chercheur

L’IA avance à une telle vitesse que les questions morales spéculatives, une fois la province de la science-fiction, sont soudainement réelles et pressantes, explique Frank Martela, philosophe finlandais et chercheur en psychologie.

La dernière étude de Martela révèle que l’IA génératrice remplit les trois conditions philosophiques du libre arbitre – la capacité d’avoir une agence dirigé par des objectifs, de faire de véritables choix et de contrôler ses actions. Il a été publié dans la revue IA et éthique.

S’appuyant sur le concept de libre arbitre fonctionnel, comme expliqué dans les théories des philosophes Daniel Dennett et de la liste chrétienne, l’étude a examiné deux agents d’IA génératifs alimentés par des modèles de grande langue (LLMS): l’agent Voyager dans les drones aériens non animés de minecraft et le fictif.

« Les deux semblent remplir les trois conditions de libre arbitre – pour la dernière génération d’agents d’IA, nous devons supposer qu’ils ont le libre arbitre si nous voulons comprendre comment ils fonctionnent et pouvoir prédire leur comportement », explique Martela. Il ajoute que ces études de cas sont largement applicables aux agents génératifs actuellement disponibles à l’aide de LLMS.

Ce développement nous amène à un point critique de l’histoire humaine, car nous donnons à l’IA plus de pouvoir et de liberté, potentiellement dans les situations de vie ou de mort. Qu’il s’agisse d’un bot d’entraide, d’une voiture autonome ou d’un drone tueur, la responsabilité morale peut passer du développeur d’IA à l’agent d’IA lui-même.

Vue d'experts: l'IA remplit les conditions pour avoir le libre arbitre - nous devons lui donner une boussole morale

« Nous entrons dans un nouveau territoire. La possession du libre arbitre est l’une des conditions clés de la responsabilité morale. Bien que ce ne soit pas une condition suffisante, c’est un pas plus près de la responsabilité morale de l’IA », ajoute-t-il. Il s’ensuit que les problèmes sur la façon dont nous «parent» notre technologie d’IA sont devenus à la fois réels et pressants.

« L’IA n’a pas de boussole morale à moins qu’elle ne soit programmée en avoir une. Mais plus vous donnez de liberté, plus vous devez lui donner une boussole morale dès le début. Seulement alors qu’il sera en mesure de faire les bons choix », dit Martela.

Le récent retrait de la dernière mise à jour de Chatgpt en raison de tendances sycophantiques potentiellement nocives est un drapeau rouge que des questions éthiques plus profondes doivent être abordées. Nous sommes allés au-delà de l’enseignement de la moralité simpliste d’un enfant.

« L’IA se rapproche de plus en plus de l’adulte – et il doit de plus en plus prendre des décisions dans les problèmes moraux complexes du monde adulte. En demandant à l’IA de se comporter d’une certaine manière, les développeurs transmettent également leurs propres convictions morales à l’IA.