Définir l'inexplicable en intelligence artificielle

Définir l’inexplicable en intelligence artificielle

Crédit : Pixabay/CC0 Domaine public

Le terme « intelligence artificielle », généralement abrégé en IA, signifie beaucoup de choses pour beaucoup de gens. Initialement, l’expression était utilisée pour faire allusion au potentiel des machines, des ordinateurs, en particulier, de gagner en quelque sorte une sensibilité au même titre que la conscience humaine. Cette notion a inspiré de nombreux débats philosophiques sur ce que signifie être humain et si oui ou non une machine peut avoir une conscience de soi. La même notion était au cœur de beaucoup de science-fiction tout au long du XXe siècle et jusqu’à nos jours, bien que l’idée d’entités autres que les humains ayant une conscience de type humain existe depuis des millénaires.

Alors que nous entrons dans une nouvelle phase du développement de la technologie de l’IA, les concepts entourant ce que nous entendons par ce terme changent. Nous considérons maintenant les réseaux de neurones qui peuvent être entraînés génétiquement pour subir un apprentissage automatique et pour acquérir certaines propriétés que nous appelons maintenant l’IA.

Cependant, bon nombre de ces outils, algorithmes informatiques soutenus par d’énormes bases de données d’informations, ne se rapprochent pas de l’affichage de la conscience et beaucoup, comme les désormais infâmes grands modèles de langage, se comportent presque comme un humain. Lorsqu’ils sont invités avec du texte, ils peuvent produire une réponse apparemment authentique qui coïncide, du moins superficiellement, avec la réponse qu’un humain pourrait donner à cette même invite.

Bien entendu, la qualité de ces modèles dépend de la formation qu’ils ont reçue et des algorithmes qu’ils exécutent pour générer leurs réponses. À ce stade de l’histoire de ce type d’IA, nous approchons rapidement de la notion d’IA « boîte noire ». Un système qui, à l’aide d’une invite, génère une réponse que même les programmeurs et les développeurs du système ne peuvent prédire. De tels systèmes et leurs réponses atteignent le point où ils ne peuvent pas être expliqués, bien que cela ne signifie pas que le système se rapproche de quelque manière que ce soit de la singularité de science-fiction de la conscience de soi, du comportement émotionnel et de tout type de concept de bien ou de mal. .

Nous développons et formons les algorithmes, lui demandons de faire une prédiction, et nous prenons les réponses. Les problèmes peuvent bien survenir lorsque ces réponses sont utilisées pour prendre des décisions importantes dans la société, en économie et en finance, dans l’industrie, dans les soins de santé et la recherche médicale, dans le domaine plus large de la science, de la politique et, ce qui est le plus inquiétant, de la machine militaire.

Si la programmation et la formation sont inexplicables, alors nous ou les machines invitant les systèmes d’IA à répondre pouvons obtenir ce qui s’avère être une très mauvaise réponse. Si nous avons donné à de tels systèmes de réponse rapide le contrôle de systèmes importants, nous pouvons alors nous débloquer lorsqu’une invite génère une réponse totalement inappropriée dans un environnement de soins de santé, dans une usine ou sur la scène mondiale.

Fabian Wahler et Michael Neubert, écrivant dans le Revue internationale d’enseignement et d’études de cas, reconnaissent l’importance de définir et de comprendre l’IA et où cela pourrait nous mener, le plus tôt possible. Ils se sont concentrés sur une définition de l’IA explicable qui pourrait être utilisée dans les travaux futurs des praticiens et des universitaires. Le travail vise à lever l’ambiguïté des définitions actuelles et à accroître la confiance et la fiabilité dans la prise de décision en rendant les systèmes de boîte noire compréhensibles, interprétables et transparents pour les utilisateurs humains.